Google fecha acordo com Pentágono para uso de IA em missões secretas

0
1


O Google fechou um acordo com o Pentágono para fornecer modelos de inteligência artificial (IA) em missões secretas, ignorando o protesto de mais de 600 funcionários, revelou o The Information nesta terça-feira (28). 

Continua após a publicidade

Numa carta enviada ao CEO da empresa, Sundar Pichai, trabalhadores (muitos da DeepMind, diga-se) alertaram que o uso confidencial da tecnologia impede o controle sobre a sua aplicação, o que abre caminho para o desenvolvimento de armas autônomas e sistemas de vigilância em massa.

O contrato permite que o agora renomeado Departamento de Guerra utilize a IA da Alphabet para “qualquer propósito governamental legal”. Isso abrange desde o planejamento de missões até a identificação de alvos militares. 

Com esse movimento, o Google se alinha à OpenAI e à xAI, de Elon Musk, garantindo sua fatia numa infraestrutura militar que opera sem as travas de segurança aplicadas aos usuários comuns.

Acordo de US$ 200 milhões exige que Google altere filtros de segurança para militares

O acordo, que envolve os principais laboratórios de IA do mercado, prevê o pagamento de até US$ 200 milhões (aproximadamente R$ 996 milhões) para cada empresa envolvida. 

Diferente de uma ferramenta comercial padrão, o Google será obrigado a ajustar filtros de segurança e configurações de proteção da sua IA para atender às exigências do governo americano. 

A empresa argumenta que fornecer acesso via API para a segurança nacional é uma estratégia responsável, desde que a infraestrutura siga padrões da indústria.

Embora o contrato afirme que a IA não deve ser usada para vigilância doméstica ou armas letais sem supervisão humana, o texto possui uma cláusula de submissão. 

Militar usando inteligência artificial (IA) em computador durante guerra
No acordo com o Pentágono, o Google não tem autonomia para impedir usos da sua tecnologia que considerar imorais – Imagem: Dragos Condrea/iStock

O Google não terá poder de veto sobre as decisões operacionais das autoridades, o que significa que a empresa perde a autonomia para impedir usos que considere imorais. Pelo menos, desde que os militares os classifiquem como “dentro da lei”.


Essa postura enterra definitivamente a política de cautela adotada em 2018, quando o Google abandonou o Projeto Maven após uma revolta interna. 

Naquela época, a big tech prometeu não criar tecnologias para armamentos. Mas essa restrição foi removida formalmente em 2025. 

A integração do modelo Gemini aos sistemas de defesa, em dezembro de 2025, já indicava que os contratos militares voltaram a ser o foco da Alphabet (daí a carta para Pichai assinada por funcionários).

Enquanto o Google e a OpenAI avançam nos termos de Washington, a Anthropic enfrenta retaliações por manter suas salvaguardas éticas. 

A startup foi descartada pelo Departamento de Defesa e rotulada como um “risco para a cadeia de suprimentos” após se recusar a desativar as travas do modelo Claude para uso em vigilância (o Olhar Digital te conta e explica essa novela). 

O cenário atual mostra que a submissão aos termos militares confidenciais tornou-se o novo padrão para gigantes do setor.

Pedro Spadoni

Pedro Spadoni

Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba. Já escreveu para sites, revistas e jornal.




Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here