O fantasma do assassino da máquina continua. Em que o presidente Putin acredita?
Tecnologia

O fantasma do assassino da máquina continua. Em que o presidente Putin acredita?

Os defensores dos robôs militares (1) argumentam que as armas automatizadas oferecem mais opções para proteger a vida humana. As máquinas são capazes de se aproximar do inimigo do que os soldados e avaliar corretamente a ameaça. E as emoções às vezes paralisam a capacidade de tomar as decisões certas.

Muitos defensores do uso de robôs assassinos acreditam fortemente que eles tornarão as guerras menos sangrentas porque menos soldados morrerão. Eles observam que os robôs, embora não sintam pena, são imunes a emoções humanas negativas, como pânico, raiva e vingança, que muitas vezes levam a crimes de guerra.

Ativistas de direitos humanos também usam o argumento de que os militares levaram a uma enorme redução nas baixas civis ao longo do último meio século, e a robotização do exército permite um mecanismo para fazer cumprir as leis da guerra com mais rigor. Eles afirmam que as máquinas se tornarão éticas quando equipadas com software que as obrigue a obedecer às leis da guerra.

É claro que um grande número de pessoas, incluindo as muito famosas, não compartilha dessa opinião há anos. Em abril de 2013, foi lançada uma campanha internacional sob o lema (2). Dentro de sua estrutura, as organizações não governamentais exigem a proibição total do uso de armas autônomas. Especialistas de muitos países sentaram-se pela primeira vez para discutir esse tópico na Conferência das Nações Unidas sobre Desarmamento em Genebra, em maio de 2014. Um relatório publicado alguns meses depois pela Human Rights Watch e cientistas da Universidade de Harvard disse que os autônomos seriam muito perigosos - eles escolhiam seus próprios alvos e matavam pessoas. Ao mesmo tempo, não está muito claro quem deve ser responsabilizado.

2. Demonstração como parte da ação "Parar os robôs assassinos"

O que um enxame de pequenos drones pode fazer

As disputas em torno dos robôs assassinos (ROU) acontecem há anos e não desaparecem. Os últimos meses trouxeram novas tentativas de parar robôs militares e uma onda de relatos de novos projetos desse tipo, alguns dos quais estão sendo testados em condições reais de combate.

Em novembro de 2017, um vídeo mostrando enxames mortais de mini-drones ., em ação aterrorizante. Os espectadores viram que não precisamos mais das máquinas de guerra pesadas, tanques ou mísseis lançados pelos Predadores para matar em massa e com metralhadoras. O diretor principal Stuart Russell, professor de inteligência artificial em Berkeley, diz:

-

Última primavera cinquenta professores As principais universidades do mundo assinaram um apelo ao Instituto Coreano de Ciência e Tecnologia Avançada (KAIST) e seu parceiro Hanwha Systems. eles anunciaram que não iriam cooperar com a universidade e receber convidados do KAIST. O motivo foi a construção de “armas autônomas” realizada por ambas as instituições. KAIST negou os relatos da mídia.

Pouco depois nos EUA mais de 3 funcionários do Google protestou contra o trabalho da empresa para os militares. Eles estavam preocupados que o Google estivesse fazendo parceria com um projeto do governo de codinome Maven que visa usar a IA para reconhecer objetos e rostos em vídeos militares de drones. A direção da empresa diz que o objetivo do Maven é salvar vidas e salvar pessoas do trabalho tedioso, não da agressão. Os manifestantes não estavam convencidos.

A próxima parte da batalha foi a declaração especialistas em inteligência artificial, inclusive trabalhando em um projeto do Google e Elon Musk. Eles prometem não desenvolver robôs. Eles também pedem aos governos que intensifiquem os esforços para regular e limitar essas armas.

A declaração diz, em parte, que "a decisão de tirar uma vida humana nunca deve ser tomada por uma máquina". Embora os exércitos do mundo estejam equipados com muitos dispositivos automáticos, às vezes com alto grau de autonomia, muitos especialistas temem que no futuro essa tecnologia possa se tornar completamente autônoma, permitindo matar sem qualquer envolvimento de um operador e comandante humano.

Especialistas também alertam que máquinas de matar autônomas podem ser ainda mais perigosas do que "armas nucleares, químicas e biológicas", porque podem facilmente sair do controle. No total, em julho do ano passado, uma carta sob os auspícios do Instituto Futuro da Vida (FGI) foi assinada por 170 organizações e 2464 pessoas. Nos primeiros meses de 2019, um grupo de cientistas médicos afiliados à FLI pediu novamente uma nova carta proibindo o desenvolvimento de armas controladas por inteligência artificial (IA).

A reunião de agosto do ano passado da ONU em Gniewo sobre a possível regulamentação legal de "robôs assassinos" militares terminou em sucesso ... máquinas. Um grupo de países, incluindo Estados Unidos, Rússia e Israel, bloqueou novos trabalhos sobre a introdução de uma proibição internacional dessas armas (projeto de Convenção sobre a Proibição ou Restrição do Uso de Certas Armas Convencionais, CCW). Não é por acaso que esses países são conhecidos por seu trabalho em sistemas avançados de armas autônomas e robóticas.

Rússia se concentra em robôs de combate

O presidente Vladimir Putin é frequentemente citado dizendo sobre sistemas militares de IA e robôs de combate:

-.

fala abertamente sobre o desenvolvimento de armas autônomas. O chefe do Estado-Maior Geral de suas forças armadas, general Valery Gerasimov, disse recentemente à agência de notícias militar Interfax-AVN que o uso de robôs será uma das principais características das futuras guerras. Ele acrescentou que a Rússia está tentando automatize totalmente o campo de batalha. Comentários semelhantes foram feitos pelo vice-primeiro-ministro Dmitry Rogozin e pelo ministro da Defesa Sergei Shoigu. O presidente do Comitê de Defesa e Segurança do Conselho da Federação, Viktor Bondarev, disse que a Rússia está se esforçando para desenvolver Tecnologias Rojuisso permitiria que as redes de drones funcionassem como uma entidade única.

Isso não é surpreendente se lembrarmos que os primeiros teletanques foram desenvolvidos na União Soviética nos anos 30. Eles foram usados ​​no início da Segunda Guerra Mundial. Hoje a Rússia também cria robôs de tanque tornar-se cada vez mais autônomo.

Estado de Putin enviou recentemente o seu próprio para a Síria Veículo de combate não tripulado Uran-9 (3). o dispositivo perdeu contato com os pontos de controle de solo, teve problemas com o sistema de suspensão e suas armas não funcionaram perfeitamente e não atingiram alvos móveis. Não parece muito sério, mas muitos consideram a limpeza síria um bom teste de combate que permitirá aos russos melhorar a máquina.

A Roscosmos aprovou um plano preliminar para enviar dois robôs à Estação Espacial Internacional até agosto deste ano. Fedor (4) na União não tripulada. Não como uma carga, mas. Como no filme RoboCop, Fedor empunha uma arma e demonstra uma pontaria mortal durante os exercícios de tiro.

A questão é: por que um robô no espaço estaria armado? Há suspeitas de que o assunto não esteja apenas em aplicações terrestres. Enquanto isso, na Terra, o fabricante de armas russo Kalashnikov mostrou uma visualização robô Igoreko que, embora tenha causado muitas risadas, sinaliza que a empresa está trabalhando seriamente em veículos de combate autônomos. Em julho de 2018, Kalashnikov anunciou que estava construindo uma arma que usa para tomar decisões de “atirar ou não atirar”.

A esta informação devem ser adicionados relatos de que o armeiro russo Digtyarev desenvolveu um pequeno tanque autônomo Nerekht que pode se mover silenciosamente em direção ao seu alvo por conta própria e depois explodir com força poderosa para destruir outros edifícios ou edifícios inteiros. Assim como Tanque T14 Armata , o orgulho das forças armadas russas, foi projetado para possível controle remoto e direção não tripulada. O Sputnik afirma que engenheiros militares russos estão trabalhando para tornar o T-14 um veículo blindado totalmente autônomo.

Diretiva de objeção

Os próprios militares dos EUA impuseram um limite bastante claro ao nível de autonomia de suas armas. Em 2012, o Departamento de Defesa dos EUA emitiu a Diretiva 3000.09, que afirma que os humanos devem ter o direito de se opor às ações de robôs armados. (embora possa haver algumas exceções). Esta diretiva permanece em vigor. A política atual do Pentágono é que o fator decisivo no uso de armas seja sempre uma pessoa, e que tal julgamento seja. está em conformidade com as leis da guerra.

Embora os americanos usem as supermáquinas voadoras, Predator, Reaper e muitas outras há décadas, elas não eram e não são modelos autônomos. Eles são controlados por operadores remotamente, às vezes a uma distância de vários milhares de quilômetros. Uma discussão acalorada sobre a autonomia de máquinas desse tipo começou com a estreia do protótipo. drone X-47B (5), que não só voava de forma independente, mas também podia decolar de um porta-aviões, pousar nele e reabastecer no ar. O significado também é atirar ou bombardear sem intervenção humana. No entanto, o projeto ainda está em testes e revisões.

5. Testes do X-47B não tripulado em um porta-aviões americano

Em 2003, o Departamento de Defesa começou a experimentar um pequeno robô parecido com um tanque. SPOES equipado com uma metralhadora. Em 2007 foi enviado ao Iraque. no entanto, o programa terminou depois que o robô começou a se comportar de forma irregular, movendo seu rifle de forma irregular. Como resultado, os militares dos EUA abandonaram o estudo de robôs terrestres armados por muitos anos.

Ao mesmo tempo, o Exército dos EUA aumentou seus gastos em operações de US$ 20 milhões em 2014 para US$ 156 milhões em 2018. Em 2019, esse orçamento já saltou para US$ 327 milhões. Este é um aumento acumulado de 1823% em apenas alguns anos. Especialistas dizem que já em 2025, os militares dos EUA podem ter um campo de batalha mais soldados robôs do que humanos.

Recentemente, muita controvérsia foi causada e anunciada pelo Exército dos EUA Projeto ATLAS () - automático. Na mídia, isso foi considerado uma violação da referida diretriz 3000.09. No entanto, os militares dos EUA negam e garantem que a exclusão de uma pessoa do ciclo de tomada de decisão está fora de questão.

AI reconhece tubarões e civis

No entanto, os defensores das armas autônomas têm novos argumentos. prof. Ronald Arkin, um roboticista do Instituto de Tecnologia da Geórgia, afirma em suas publicações que Na guerra moderna, as armas inteligentes são essenciais para evitar baixas civis, pois as técnicas de aprendizado de máquina podem efetivamente ajudar a distinguir entre combatentes e civis e alvos importantes e sem importância.

Um exemplo dessas habilidades de IA é patrulhar as praias australianas. drones Little Ripperequipado com o sistema SharkSpotter desenvolvido pela Universidade de Tecnologia de Sydney. Este sistema verifica automaticamente a água em busca de tubarões e alerta o operador quando vê algo inseguro. (6) Pode identificar pessoas, golfinhos, barcos, pranchas de surf e objetos na água para distingui-los dos tubarões. Ele pode detectar e identificar cerca de dezesseis espécies diferentes com alta precisão.

6. Tubarões reconhecidos no sistema SharkSpotter

Esses métodos avançados de aprendizado de máquina aumentam a precisão do reconhecimento aéreo em mais de 90%. Para comparação, um operador humano em uma situação semelhante reconhece com precisão 20-30% dos objetos em fotografias aéreas. Além disso, a identificação ainda é verificada por um humano antes de um alarme.

No campo de batalha, o operador, vendo a imagem na tela, dificilmente pode determinar se as pessoas no solo são combatentes com AK-47 nas mãos ou, por exemplo, agricultores com lanças. Arkin observa que as pessoas tendem a "ver o que querem ver", especialmente em situações estressantes. Este efeito contribuiu para a queda acidental de uma aeronave iraniana pelo USS Vincennes em 1987. É claro que, em sua opinião, as armas controladas por IA seriam melhores do que as atuais "bombas inteligentes", que não são realmente sencientes. Em agosto passado, um míssil guiado a laser saudita atingiu um ônibus cheio de crianças em idade escolar no Iêmen, matando quarenta crianças.

“Se um ônibus escolar estiver devidamente rotulado, identificá-lo em um sistema autônomo pode ser relativamente fácil”, argumenta Arkin em Popular Mechanics.

No entanto, esses argumentos não parecem convencer os ativistas contra os assassinos automáticos. Além da ameaça de robôs assassinos, outra circunstância importante deve ser levada em consideração. Mesmo um sistema "bom" e "atento" pode ser hackeado e dominado por pessoas muito más. Então todos os argumentos em defesa do equipamento militar perdem sua força.

Adicionar um comentário