Guerra de algoritmos
Tecnologia

Guerra de algoritmos

Quando se trata do uso de inteligência artificial nas forças armadas, o pesadelo da ficção científica desperta imediatamente, uma IA rebelde e mortal que se levanta contra a humanidade para destruí-la. Infelizmente, os temores dos militares e líderes de que “o inimigo nos alcançará” são igualmente fortes no desenvolvimento de algoritmos de guerra.

Guerra Algorítmicao que, segundo muitos, poderia mudar fundamentalmente a face do campo de batalha como o conhecemos, principalmente porque a guerra seria mais rápida, muito à frente da capacidade das pessoas de tomar decisões. general americano Jack Shanahan (1), chefe do Centro Conjunto de Inteligência Artificial dos EUA, enfatiza, no entanto, que antes de introduzir a inteligência artificial nos arsenais, devemos garantir que esses sistemas ainda estejam sob controle humano e não iniciem guerras por conta própria.

“Se o inimigo tiver máquinas e algoritmos, perderemos esse conflito”

Capacidade de condução guerra algorítmica baseia-se na utilização dos avanços da tecnologia informática em três áreas principais. O primeiro décadas de crescimento exponencial no poder de computaçãoisso melhorou muito o desempenho do aprendizado de máquina. Segundo rápido crescimento de recursos “Big data”, ou seja, conjuntos de dados enormes, geralmente automatizados, gerenciados e criados continuamente, adequados para aprendizado de máquina. A terceira diz respeito rápido desenvolvimento de tecnologias de computação em nuvem, através do qual os computadores podem acessar facilmente os recursos de dados e processá-los para resolver problemas.

Algoritmo de Guerraconforme definido pelos especialistas, deve primeiro ser expresso com código de computador. Em segundo lugar, deve ser o resultado de uma plataforma capaz de coletar informações e fazer escolhas, tomar decisões que, pelo menos em teoria, não exigem intervenção humana. Em terceiro lugar, o que parece óbvio, mas não necessariamente, pois é somente na ação que fica claro se uma técnica destinada a outra coisa pode ser útil na guerra e vice-versa, deve ser capaz de funcionar em condições. conflito armado.

Uma análise das direções acima e sua interação mostra que guerra algorítmica não é uma tecnologia separada como, por exemplo. armas de energia ou mísseis hipersônicos. Seus efeitos são amplos e estão gradualmente se tornando onipresentes nas hostilidades. Pela primeira vez veículos militares eles se tornam inteligentes, potencialmente tornando as forças de defesa que os implementam mais eficientes e eficazes. Essas máquinas inteligentes têm limitações claras que precisam ser bem compreendidas.

"" Shanahan disse no outono passado em uma entrevista com o ex-CEO do Google Eric Schmidt e o vice-presidente de assuntos internacionais do Google, Kent Walker. "".

O relatório preliminar do Conselho de Segurança Nacional dos EUA sobre IA se refere à China mais de 50 vezes, destacando o objetivo oficial da China de se tornar o líder mundial em IA até 2030 (Veja também: ).

Essas palavras foram ditas em Washington em uma conferência especial que ocorreu após o já mencionado Shanakhan Center apresentar seu relatório preliminar ao Congresso, preparado em colaboração com renomados especialistas na área de inteligência artificial, incluindo o diretor de pesquisa da Microsoft Eric Horwitz, o CEO da AWS Andy Jassa e O pesquisador principal do Google Cloud, Andrew Moore. O relatório final será publicado em outubro de 2020.

Funcionários do Google protestam

Alguns anos atrás, o Pentágono se envolveu. guerra algorítmica e vários projetos relacionados à IA no projeto Maven, com base na colaboração com empresas de tecnologia, incluindo Google e startups como Clarifai. Tratava-se principalmente de trabalhar inteligência artificialpara facilitar a identificação de objetos.

Quando se soube da participação do Google no projeto, na primavera de 2018, milhares de funcionários da gigante de Mountain View assinaram uma carta aberta protestando contra a participação da empresa nas hostilidades. Após meses de agitação trabalhista Google adotou seu próprio conjunto de regras para IAque inclui a proibição de participação em eventos.

O Google também se comprometeu a concluir o contrato do Project Maven até o final de 2019. A saída do Google não encerrou o Projeto Maven. Foi comprado por Palantir de Peter Thiel. A Força Aérea e o Corpo de Fuzileiros Navais dos EUA planejam usar veículos aéreos não tripulados especiais, como o Global Hawk, como parte do projeto Maven, cada um dos quais deve monitorar visualmente até 100 quilômetros quadrados.

Por ocasião do que está acontecendo em torno do Projeto Maven, ficou claro que os militares dos EUA precisam urgentemente de sua própria nuvem. Isto é o que Shanahan disse durante a conferência. Isso ficou evidente quando imagens de vídeo e atualizações do sistema tiveram que ser transportadas para instalações militares espalhadas pelo campo. No prédio computação em nuvem unificada, que ajudará a resolver problemas desse tipo, como parte de um projeto unificado de infraestrutura de TI para o exército Jedi, Microsoft, Amazon, Oracle e IBM. O Google não é por causa de seus códigos éticos.

Fica claro pela declaração de Shanahan que a grande revolução da IA ​​nas forças armadas está apenas começando. E o papel de seu centro nas forças armadas dos EUA está crescendo. Isso é visto claramente no orçamento estimado do JAIC. Em 2019, totalizou pouco menos de US$ 90 milhões. Em 2020, já deve ser de US$ 414 milhões, ou cerca de 10% do orçamento de IA de US$ 4 bilhões do Pentágono.

A máquina reconhece um soldado rendido

As tropas dos EUA já estão equipadas com sistemas como o Phalanx (2), que é um tipo de arma autônoma usada em navios da Marinha dos EUA para atacar mísseis que chegam. Quando um míssil é detectado, ele liga automaticamente e destrói tudo em seu caminho. Segundo Ford, ele pode atacar com quatro ou cinco mísseis em meio segundo sem ter que passar e olhar para cada alvo.

Outro exemplo é o Harpy semi-autônomo (3), um sistema comercial não tripulado. A harpia é usada para destruir radares inimigos. Por exemplo, em 2003, quando os EUA lançaram um ataque ao Iraque que tinha sistemas de interceptação de radar no ar, drones israelenses ajudaram a encontrá-los e destruí-los para que os americanos pudessem voar com segurança para o espaço aéreo iraquiano.

3. Lançamento do drone do sistema IAI Harpy

Outro exemplo bem conhecido de armas autônomas é Sistema coreano Samsung SGR-1, localizado na zona desmilitarizada entre a Coreia do Norte e a Coreia do Sul, projetado para identificar e disparar intrusos a uma distância de até quatro quilômetros. De acordo com a descrição, o sistema “pode distinguir entre uma pessoa que se rende e uma pessoa que não se rende” com base na posição de suas mãos ou no reconhecimento da posição da arma em suas mãos.

4. Demonstração da detecção de um soldado rendido pelo sistema Samsung SGR-1

Os americanos têm medo de serem deixados para trás

Atualmente, pelo menos 30 países ao redor do mundo usam armas automáticas com diferentes níveis de desenvolvimento e uso de IA. China, Rússia e Estados Unidos veem a inteligência artificial como um elemento indispensável na construção de sua futura posição no mundo. “Quem vencer a corrida de IA governará o mundo”, disse o presidente russo, Vladimir Putin, aos estudantes em agosto de 2017. O presidente da República Popular da China, Xi Jinping, não fez declarações tão importantes na mídia, mas ele é o principal impulsionador da diretiva que pede que a China se torne a força dominante no campo da IA ​​até 2030.

Há uma preocupação crescente nos Estados Unidos com o “efeito satélite”, que mostrou que os Estados Unidos estão extremamente mal equipados para enfrentar os novos desafios impostos pela inteligência artificial. E isso pode ser perigoso para a paz, mesmo porque o país ameaçado pela dominação pode querer eliminar a vantagem estratégica do inimigo de outra forma, ou seja, pela guerra.

Embora o objetivo original do projeto Maven fosse ajudar a encontrar combatentes islâmicos do ISIS, sua importância para o desenvolvimento de sistemas militares de inteligência artificial é enorme. A guerra eletrônica baseada em gravadores, monitores e sensores (incluindo móveis, voadores) está associada a um grande número de fluxos de dados heterogêneos, que só podem ser usados ​​efetivamente com a ajuda de algoritmos de IA.

O campo de batalha híbrido tornou-se versão militar da IoT, rico em informações importantes para avaliar ameaças e oportunidades táticas e estratégicas. Ser capaz de gerenciar esses dados em tempo real traz grandes benefícios, mas não aprender com essas informações pode ser desastroso. A capacidade de processar rapidamente o fluxo de informações de várias plataformas que operam em diversas áreas oferece duas vantagens militares principais: velocidade i alcance. A inteligência artificial permite analisar as condições dinâmicas do campo de batalha em tempo real e atacar de forma rápida e otimizada, minimizando o risco para suas próprias forças.

Este novo campo de batalha também é onipresente e. A IA está no centro dos chamados enxames de drones, que receberam muita atenção nos últimos anos. Com a ajuda de sensores ubíquos, não só permite que os drones naveguem em terrenos hostis, como podem, em última análise, permitir a formação de formações complexas de vários tipos de veículos aéreos não tripulados que operam em muitas áreas, com armas adicionais que permitem táticas de combate sofisticadas, adaptando-se imediatamente às inimigo. manobras para tirar vantagem do campo de batalha e relatar mudanças nas condições.

Os avanços na designação e navegação de alvos assistidos por IA também estão melhorando as perspectivas de eficácia em uma ampla gama de sistemas de defesa tática e estratégica, especialmente defesa antimísseis, melhorando os métodos de detecção, rastreamento e identificação de alvos.

aumenta constantemente o poder das simulações e ferramentas de jogos usadas para pesquisar armas nucleares e convencionais. A modelagem e simulação em massa serão essenciais para desenvolver um sistema abrangente de vários domínios de sistemas alvo para controle de combate e missões complexas. A IA também enriquece as interações com várias partes (5). A IA permite que os jogadores adicionem e modifiquem variáveis ​​do jogo para explorar como as condições dinâmicas (armas, envolvimento de aliados, tropas adicionais etc.) podem afetar o desempenho e a tomada de decisões.

Para os militares, a identificação de objetos é um ponto de partida natural para a IA. Em primeiro lugar, é necessária uma análise abrangente e rápida do crescente número de imagens e informações coletadas de satélites e drones para encontrar objetos de importância militar, como mísseis, movimentos de tropas e outros dados relacionados à inteligência. Hoje, o campo de batalha abrange todas as paisagens — mar, terra, ar, espaço e ciberespaço — em escala global.

Ciberespaçocomo um domínio inerentemente digital, é naturalmente adequado para aplicativos de IA. No lado ofensivo, a IA pode ajudar a encontrar e direcionar nós de rede individuais ou contas individuais para coletar, interromper ou desinformar. Ataques cibernéticos em infraestrutura interna e redes de comando podem ser desastrosos. No que diz respeito à defesa, a IA pode ajudar a detectar tais intrusões e encontrar anomalias destrutivas em sistemas operacionais civis e militares.

Velocidade esperada e perigosa

No entanto, a tomada de decisão rápida e a execução imediata podem não lhe servir bem. para uma gestão eficaz de crises. As vantagens da inteligência artificial e dos sistemas autônomos no campo de batalha podem não dar tempo para a diplomacia, que, como sabemos da história, muitas vezes tem sido bem-sucedida como meio de prevenir ou gerenciar uma crise. Na prática, desacelerar, pausar e tempo para negociar podem ser a chave para a vitória, ou pelo menos evitar uma catástrofe, especialmente quando as armas nucleares estão em jogo.

Decisões sobre guerra e paz não podem ser deixadas para análises preditivas. Existem diferenças fundamentais em como os dados são usados ​​para fins científicos, econômicos, logísticos e preditivos. comportamento humano.

Alguns podem perceber a IA como uma força que enfraquece a sensibilidade estratégica mútua e, portanto, aumenta o risco de guerra. Dados corrompidos acidental ou intencionalmente podem levar os sistemas de IA a realizar ações não intencionais, como identificar incorretamente e direcionar os alvos errados. A velocidade de ação postulada no caso do desenvolvimento de algoritmos de guerra pode significar uma escalada prematura ou mesmo desnecessária que impede a gestão racional da crise. Por outro lado, os algoritmos também não vão esperar e explicar, porque também se espera que sejam rápidos.

Aspecto perturbador funcionamento de algoritmos de inteligência artificial também apresentado por nós recentemente em MT. Mesmo os especialistas não sabem exatamente como a IA leva aos resultados que vemos na saída.

No caso dos algoritmos de guerra, não podemos permitir tal ignorância sobre a natureza e como eles a "pensam". Não queremos acordar no meio da noite com explosões nucleares porque "nossa" ou "sua" inteligência artificial decidiu que é hora de finalmente resolver o jogo.

Adicionar um comentário