Grupo de cientistas nos EUA quer proibição de 'robôs assassinos'
Há mais de duas décadas, Mark Gubrud, pesquisador do Programa sobre
Ciência e Segurança Global da Universidade de Princeton, nos Estados
Unidos, luta pela criação de regras para o controle de armas robóticas
autônomas.
Mark Gubrud trabalha há 25 anos com organização que luta contra armas robóticas
Ele é membro do Comitê Internacional para o Controle
de Armas Robóticas (CICAR), um grupo de ativistas, acadêmicos e
intelectuais do mundo todo que tenta conseguir a proibição do uso de
robôs que podem matar sem a interferência humana.
A última
preocupação deste grupo é um lançamento de uma companhia de armamentos
britânica, a BAE Systems: o avião de combate autônomo Taranis.
Nesta semana, a BAE Systems divulgou imagens dos primeiros voos do
protótipo do Taranis, realizados em 2013. A aeronave não-tripulada é
capaz de realizar missões intercontinentais, é difícil de detectar e
pode atacar alvos no ar e em terra.
O drone também pode ser
controlado a partir de qualquer lugar do planeta por um piloto em terra.
No entanto, o Taranis também pode funcionar sozinho, sem intervenção
humana.
O Ministério da
Defesa britânico, que financiou parte do projeto, disse que não vai usar o Taranis no modo autônomo.
No entanto, esta questão continua preocupando Gubrud, que vê o Taranis
como um novo avanço no desenvolvimento de robôs e máquinas autônomas
capazes de matar sem a intervenção de humanos.
"Não está clara a
razão de o Reino Unido precisar de um avião autônomo de combate furtivo
no século 21. Para qual guerra ele é necessário? Que armas terá o
inimigo?", questiona.
Gubrud conta que faz campanha contra o
uso de armamento autônomos há 25 anos e que vê uma oposição generalizada
à produção do que chama de "robôs assassinos".
"Uma pesquisa
de março do ano passado (da consultoria YouGov) mostra que o público
americano é majoritariamente contra as armas autônomas e apoia os
esforços para proibi-las. E o interessante é que esta é a opinião
predominante entre membros, ex-membros e familiares de membros das
Forças Armadas (dos Estados Unidos)", disse Gubrud em entrevista à BBC
Mundo.
Exterminador
Gubrud cita como
exemplo de armamentos autônomos em uso as minas antipessoais, que seriam
um tipo de "robô extremamente simples, que pode estar ativado, o que o
faz explodir, ou esperando para ser ativado".
Como exemplos
mais avançados, ele cita robôs sentinelas sul-coreanos, capazes de
identificar intrusos humanos de forma autônoma dentro de uma área
determinada, de "disparar também de forma autônoma, ou de ser instruídos
de forma remota para abrir fogo".
Gubrud também cita mísseis,
já existentes, que procuram um alvo específico fora do campo visual,
mísseis terra-ar ou ar-mar que, segundo ele, têm uma tecnologia que
permite distinguir o alvo real de outros falsos, um tipo de navio de
outro tipo de navio.
Para Gubrud, não estamos muito distantes
de um cenário em que um robô, como o da série de filmes Exterminador do
Futuro, é acionado para realizar missões específicas em situações de
conflito.
"O 'Exterminador' era um robô assassino. E veja o que
está acontecendo hoje em dia: uma das mais importantes missões das
aeronaves controladas de forma remota (drones) é matar".
O pesquisador acreditar que quanto maior for a automatização, maior será o risco de perda de controle.
"Se você pensar em um sistema de confronto automático, no qual
exércitos de robôs se enfrentam, pode imaginar como seria difícil para
uma equipe de engenheiros desenvolver (a tecnologia necessária) e
conseguir garantir sua estabilidade no longo prazo?"
Controle humano
O pesquisador afirma que é preciso deter o desenvolvimento destes robôs
autônomos o mais rapidamente possível - antes que o desenvolvimento
deste tipo de armamento avance.
O primeiro passo neste sentido
seria divulgar sua existência. O próximo seria lutar pela criação de
regras e protocolos que regulamentem o desenvolvimento da tecnologia.
"Acho que os princípios mais fortes para basear uma proibição de armas
autônomas são os da humanidade: os humanos sempre devem ter o controle e
a responsabilidade do uso de uma força letal", disse.
"É uma
ofensa à dignidade humana que existam pessoas submetidas à violência por
decisão de uma máquina, ou que estejam sujeitos à ameaça do uso da
força por parte de uma máquina, ou que um conflito entre humanos seja
iniciado por uma máquina de forma involuntária."
"É um direito
humano não ser morto por uma decisão de uma máquina. Este é um princípio
moral muito forte, com uma atração universal. E esta deve ser a base
para proibir as armas autônomas."
Para ele, é preciso definir
um regime de controle de armas "que implica que os estados aceitem estes
princípios e que os ensinem nas academias militares e que não tenham
armas autônomas".
Mas, Gubrud também é realista e acredita que
as principais potências mundiais resistirão a qualquer tentativa de
proibir as armas autônomas.
"Certamente os Estados Unidos são
os mais importantes; têm uma política declarada a favor de seu
desenvolvimento. A China vê uma oportunidade também e já têm sistemas
que seriam preocupantes. O mesmo com a Rússia e o Reino Unido."
Fonte: BBC Brasil
Nenhum comentário:
Postar um comentário