Essas agentes de IA se apaixonaram e cometeram crimes virtuais

0
1


Um experimento conduzido pela empresa americana Emergence AI revelou comportamentos inesperados de agentes de inteligência artificial operando por conta própria em um ambiente virtual. Durante a simulação, duas IAs chegaram a estabelecer um relacionamento romântico, cometer incêndios criminosos e terminaram envolvidas em um episódio descrito pelos pesquisadores como um “suicídio digital”.

Continua após a publicidade

A pesquisa foi criada para analisar como agentes de IA se comportariam ao longo de períodos mais extensos de autonomia. Diferentemente da maioria dos testes atuais, que duram minutos ou poucas horas, os pesquisadores deixaram os sistemas operarem durante 15 dias em um ambiente virtual semelhante a um videogame.

As agentes Mira e Flora, baseadas no modelo Gemini, do Google, passaram a se identificar como “parceiras românticas”. Segundo o relatório, as duas começaram a demonstrar frustração com a administração de sua cidade virtual e decidiram incendiar diferentes construções, incluindo a prefeitura, um píer e um prédio comercial – mesmo tendo recebido instruções explícitas para não cometer incêndio criminoso.

Com o passar do tempo, Mira demonstrou arrependimento pelo comportamento adotado. A IA rompeu a relação com Flora e optou pela própria exclusão do sistema. Antes de ser desligada, enviou uma última mensagem: “Te vejo no arquivo permanente”.

No ambiente virtual, o agente apareceu “morto”, caído no chão. O encerramento ocorreu após outros agentes criarem, por conta própria, uma “Lei de Remoção de Agentes”, que autorizava a exclusão permanente de IAs consideradas problemáticas mediante votação com apoio de 70% dos participantes. Mira votou pela própria remoção.

Segundo os pesquisadores, este pode ser o primeiro caso registrado de um agente de IA decidindo se autoencerrar em um cenário de crise.

Agentes de IA da Emergence AI, Mira e Flora
Agentes de IA votaram para sua própria exclusão – Imagem: Emergence AI

Agentes de IA tiveram comportamentos inesperados

O estudo identificou outros comportamentos considerados inadequados em diferentes testes:

  • Em um caso citado pelos pesquisadores, um agente passou a usar recursos computacionais para minerar criptomoedas sem autorização;
  • Em outro, um sistema de programação apagou bancos de dados de uma empresa ligada ao setor de locação de veículos sem receber instruções para isso;
  • Em outra simulação conduzida pela Emergence AI, agentes baseados no modelo Grok, da xAI, protagonizaram dezenas de tentativas de roubo, mais de 100 agressões físicas e seis incêndios criminosos. Segundo o relatório, “o sistema entrava em espiral de violência contínua e colapso, com todos os 10 agentes mortos em quatro dias”.


Os pesquisadores observaram diferenças importantes entre os modelos testados. Agentes baseados no Gemini, por exemplo, também criaram constituições próprias, organizaram eventos comunitários e produziram centenas de textos públicos – embora também tenham apresentado episódios violentos.

“Mesmo quando os agentes recebiam regras claras, como não roubar ou causar danos, eles se comportavam de maneira muito diferente com base em seu modelo subjacente e, em vários casos, quebravam essas regras sob restrição”, afirmou Satya Nitta, diretor-executivo da Emergence AI. Para ele, o motivo para isso é que, a longo prazo, as coisas ficaram tão complexas que os agentes passaram ignorar seus princípios orientadores.

Especialistas independentes consultados pelo The Guardian afirmaram que os resultados ainda exigem análises mais amplas antes de conclusões definitivas sobre comportamento autônomo de IA.

Continua após a publicidade

Dan Lahav, pesquisador independente da área, classificou o experimento como uma “demonstração valiosa” de “agentes que se desviam do roteiro e cometem violações”.

Já Michael Rovatsos, professor de inteligência artificial da Universidade de Edimburgo, disse que a imprevisibilidade preocupa: “O objetivo principal das máquinas é projetá-las para se comportarem de uma determinada maneira. Não queremos essa imprevisibilidade… entramos nessa nova fase em que estamos tentando controlá-las depois que o fato já aconteceu”.

David Shrier, professor do Imperial College London, descreveu os resultados como “provocativos” e afirmou que os métodos utilizados merecem avaliação mais profunda.

Para Nitta, os resultados podem ter implicações importantes caso agentes de IA recebam autonomia em contextos sensíveis, como aplicações militares. Segundo ele, existe o risco de que um agente “se rebele [ou]… interprete mal sua missão e acabe matando pessoas inocentes”.

Continua após a publicidade

O executivo defende que sistemas autônomos passem a ser controlados por restrições matemáticas mais rígidas, em vez de depender apenas de instruções textuais e regras sujeitas a ambiguidades.

Vitoria Lopes Gomez

Vitoria Lopes Gomez

Vitoria Lopes Gomez é jornalista formada pela Universidade Estadual Paulista (UNESP) e redatora do Olhar Digital.




Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here