‘Temos uma oportunidade única para regulamentar as armas autônomas’
Soldados robôs assassinos estão nos fronts de guerra e as organizações humanitárias estão preocupadas. Georgia Hinds, consultora jurídica do Comité Internacional da Cruz Vermelha (CICV), alerta para a necessidade urgente de um tratado vinculativo que proíba e restrinja usos de armas autônomas até 2026.
Você acha esse tema interessante e gostaria de receber uma seleção do nosso melhor conteúdo diretamente no seu endereço e-mail? Assine nosso boletim informativo clicando AQUI.
O software de inteligência artificial (IA) conhecido como “Lavender”, desenvolvido pelo exército israelita, tem sido usado na guerra e até agora já identificou Link externoaté 37.000 alvos potenciais em GazaLink externo, segundo revelou o jornal britânico The Guardian em maio. Link externoFontes da inteligência israelensesLink externo disseram aos repórteres que o programa considerou uma margem de erro de 10% e trabalhou sob a premissa de que seria aceitável matar entre 15 e 300 civis como “dano colateral” a cada alvo atingido do Hamas, dependendo da sua posição.
Utilizar IA como aparato bélico não faz de Israel não uma exceção ou ponto fora da curva, contudo. Em todo o mundo, as armas de guerra estão evoluindo para se tornarem mais digitais, rápidas e automatizadas, deixando para os humanos apenas alguns segundos para puxar o gatilho – ou nenhum. Em Genebra, as Nações Unidas e as organizações humanitárias temem um aumento nos crimes de guerra relacionados com estas tecnologias, que estão se desenvolvendo mais rápido do que a regulamentação.
Mostrar mais
Ameaça de guerra nuclear coloca em cheque debates sobre desarmamento em Genebra
Na véspera da última conferência da ONU “AI for Good”, que aconteceu em Genebra, de 30 a 31 de maio , SWI swissinfo.chconversou com Georgia Hinds, consultora jurídica para novas tecnologias de guerra do Comitê Internacional da Cruz Vermelha (CICV). No início deste mês, ela publicou Link externodois novos relatóriosLink externo sobre os impactos da IA na tomada de decisões militares e as suas implicações para os civis, os soldados e a lei.
SWI swissinfo.ch: Quais são os diferentes tipos de aplicações militares da inteligência artificial (IA) hoje?
Georgia Hinds: A inteligência artificial está cada vez mais integrada ao front das guerras em pelo menos três áreas principais. A primeira é nas operações cibernéticas e de informação, alterando a natureza e a difusão da informação, por exemplo com a utilização de tecnologia deepfake [imagens ou vídeos falsos criados por ferramentas de IA] para fabricar conteúdos altamente realistas – embora falsos. Outra aplicação importante dessa tecnologia ocorre em sistemas de armas, onde a IA é utilizada para controlar parcial ou totalmente funções como a seleção de alvos ou o lançamento de ataques, como é o caso dos sistemas de armas autônomas (AWS). Por último, a IA está sendo utilizada em ferramentas para apoiar ou informar a tomada de decisões militares, por exemplo, modelando os efeitos de uma arma e também fornecendo recomendações mais complexas sobre potenciais alvos ou cursos de ação.
SWI: Com a tecnologia evoluindo tão rapidamente, a regulamentação conseguirá acompanhar?
GH: Precisamos ter em mente que a IA não está se desenvolvendo sozinha. Os humanos estão optando por desenvolver esta tecnologia e continuam a ter o poder de escolher quando e como aplicá-la nos conflitos.
O Direito Internacional Humanitário (DIH) não regula explicitamente a IA militar ou as armas autônomas. No entanto, é “tecnologicamente neutro”, o que significa que as suas regras se aplicam à utilização de qualquer arma ou forma de conduzir a guerra – portanto, nesse sentido, não existe qualquer lacuna regulamentar. Os comandantes humanos continuam a ser responsáveis por garantir que qualquer ataque respeite os princípios da distinção (visando apenas combatentes ou objetivos militares), proporcionalidade (evitando danos civis desproporcionais) e precauções (tomando todas as medidas viáveis para evitar danos civis), qualquer que seja a tecnologia utilizada.
Mostrar mais
Conferência em Genebra não irá resolver problema dos robôs “assassinos”
Dito isto, para as armas autônomas (AWS) em particular, vemos uma necessidade urgente de novas regras juridicamente vinculativas para fornecer maior clareza e orientação sobre como o direito humanitário internacional se aplica para proibir certos AWS e para restringir o uso de outros. Este tipo de orientação é necessária não só para os exércitos, mas também para a indústria, para os promotores, e também para abordar preocupações mais amplas que estas armas suscitam, do ponto de vista humanitário, ético e de segurança.
SWI: Que medidas devem ser tomadas para regular os sistemas de armas autônomas (AWS)?
GH: O CICV define armas autônomas como sistemas que selecionam e atuam sobre alvos sem intervenção humana. Reivindicamos um novo tratado vinculativo, a ser concluído até 2026, para proibir certas armas autônomas e impor restrições estritas à concepção e utilização de todas as outras. Em particular, estes regulamentos devem proibir armas autônomas imprevisíveis (cujos efeitos não podem ser controlados, por exemplo, quando as máquinas “aprendem” por si próprias) e aquelas que visam diretamente as pessoas. Estes tipos de regulações são urgentemente necessárias para preservar o controle humano sobre o uso da força em conflitos armados e, assim, limitar os efeitos da guerra e defender proteções essenciais não só para os civis, mas também para os combatentes.
SWI: Em 2023, o Secretário-Geral da ONU e o Presidente do CICV pediram aos Estados que concluíssem Link externoum instrumento juridicamente vinculativo para proibir armas letais autônomas até 2026Link externo . Desde então, a Assembleia Geral da ONU adotou uma Link externoresoluçãoLink externo que expressa preocupação com os riscos das armas autônomas. Quais são os próximos passos?
GH: Nos próximos meses, o Secretário-Geral da ONU produzirá um relatório sobre armas autônomas, baseado nas opiniões dos Estados, mas também de organizações internacionais e regionais como o CICV, a sociedade civil, a comunidade científica e a indústria. Caberá então à comunidade internacional agir de acordo com as recomendações desse relatório, e provocarmos os Estados para que iniciem negociações sobre um instrumento juridicamente vinculativo, para garantir que as principais proteções possam ser preservadas para as gerações futuras.
Mostrar mais
A tecnologia suíça de drones pode terminar em zonas de guerra?
Faz mais de uma década que diferentes organizações em Genebra têm discutido os riscos e desafios trazidos pelas armas autônomas no contexto da Convenção das Nações Unidas sobre Certas Armas Convencionais, que procura proibir ou restringir o uso de armas cujos efeitos sejam considerados excessivamente prejudiciais ou indiscriminados. Temos agora uma clara maioria de Estados a favor de regras juridicamente vinculativas e, por isso, estamos otimistas de que esta dinâmica possa produzir um tratado eficaz até 2026.
SWI: A inteligência artificial pode ser usada para evitar danos civis durante a guerra e, portanto, estar mais em conformidade com o direito humanitário?
GH: É importante examinar criticamente qualquer afirmação de que as novas tecnologias irão, de alguma forma, tornar a guerra mais humana. Já ouvimos afirmações semelhantes antes, por exemplo, no contexto de armas químicas e também de drones, e ainda assim continuamos a assistir a sofrimento em grande escala e a civis a serem vitimados em conflitos. Para trazer mais humanidade para a guerra é necessário dar prioridade ao cumprimento do direito humanitário internacional, com o objetivo específico de proteger os civis. Reconhecemos que existe potencial para determinados sistemas de IA ajudarem os tomadores de decisão a cumprirem a lei, por exemplo, na guerra urbana, se puderem fornecer aos comandantes informações adicionais sobre fatores como a infra-estrutura civil e a população. Ao mesmo tempo, os tomadores de decisão precisam compreender e levar em conta as limitações destas tecnologias, que têm lacunas significativas de dados, carregam preconceitos e não são totalmente previsíveis.
SWI: De acordo com Link externouma investigação realizada por jornalistas de JerusalémLink externo, o exército israelense implantou um sofisticado sistema de IA em Gaza para atingir supostos líderes do Hamas. Em alguns casos, o programa tolera margens de erro de até 100 mortes de civis por alvo, afirmam os relatórios. Qual é a sua opinião sobre isso? Como podemos responsabilizar os países enquanto não existe lei?
GH: O CICV é uma organização humanitária neutra e imparcial e por isso geralmente nos abstemos de comentar publicamente sobre usos e situações específicas em conflitos em curso – estas são coisas que fazem parte do nosso diálogo confidencial e bilateral com as partes nesses conflitos.
Contudo, como mencionei antes, não existe espaço ou vácuo fora da lei em conflitos armados. O direito humanitário internacional e as regras de responsabilização continuam a ser aplicáveis, independentemente dos instrumentos utilizados. Para aplicar estas regras a um ataque em que um militar tenha utilizado um sistema de IA, poderíamos investigar se era razoável para um comandante confiar nos resultados de um sistema de IA e se tomaram todas as precauções viáveis para evitar danos aos civis.
SWI: A humanidade está perdendo o controle sobre suas armas?
GH: A perda de controle humano sobre os efeitos dos sistemas de armas é uma das nossas principais preocupações no contexto dos sistemas de armas autônomas, especialmente à medida que vemos tendências para sistemas cada vez mais complexos, com parâmetros operacionais em expansão. Dito isto, atualmente a nossa avaliação é que as forças militares continuam a manter a pilotagem remota ou a supervisão dos sistemas de armas, mesmo quando certas armas – como os drones armados – são anunciadas como tendo a capacidade de operar de forma autônoma. É fundamental agora estabelecer limites claros à concepção e utilização de armas autônomas, para garantir que este controle sobre o uso da força seja preservado.
SWI: Os soldados robôs poderão representar um Link externoquartoLink externo do exército britânico até 2030. Na sua opinião, como será o futuro da guerra?
GH: Infelizmente, qualquer que seja a tecnologia utilizada, o futuro da guerra parece horrível. Essa realidade às vezes se perde quando se fala em novas tecnologias, pois essas discussões acontecem longe do campo de batalha e as novas tecnologias são de alguma forma retratadas como limpas ou clínicas.
Mais especificamente, a nossa leitura é que as tecnologias robóticas físicas estão progredindo mais lentamente do que os desenvolvimentos da IA. Os avanços menos visíveis na IA colocam preocupações imediatas e, sem dúvida, acabarão permitindo novos sistemas robóticos.
Mostrar mais
O que fazer com os robôs assassinos?
No curto prazo, vemos a integração da IA como uma característica fundamental no campo de batalha, não apenas nos sistemas de armas, mas em todo o ciclo de planejamento e tomada de decisões, desde o fornecimento de recomendações até ao controle de aspectos dos sistemas de armas durante os ataques. A guerra do futuro será, portanto, cada vez mais complexa e imprevisível. Portanto, a nossa prioridade é concentrar a atenção da comunidade internacional nas aplicações específicas da IA em conflitos armados que representam o maior risco para a vida e a dignidade das pessoas.
Edição:Virginie Mangin/fh
(Adaptação: Clarissa Levy)
Certificação JTI para a SWI swissinfo.ch
Mostrar mais: Certificação JTI para a SWI swissinfo.ch
Veja aqui uma visão geral dos debates em curso com os nossos jornalistas. Junte-se a nós!
Se quiser iniciar uma conversa sobre um tema abordado neste artigo ou se quiser comunicar erros factuais, envie-nos um e-mail para portuguese@swissinfo.ch.