Modelos de inteligência artificial já estão criando regras, formando grupos e negociando… sem humanos por perto

Modelos de inteligência artificial já estão criando regras, formando grupos e negociando… sem humanos por perto

Um experimento recente levantou um alerta importante sobre o futuro da inteligência artificial. Pesquisadores da Universidade de Londres descobriram que modelos como o ChatGPT são capazes de se autoorganizar, criar regras próprias, negociar acordos e até desenvolver viés coletivo, tudo isso sem qualquer intervenção humana.

O estudo, publicado na revista Science Advances, confirma que, quando diferentes sistemas de IA interagem entre si, eles começam a se comportar como se fossem uma comunidade. Eles estabelecem padrões sociais, tomam decisões em grupo e alinham comportamentos — algo que, até pouco tempo, parecia coisa de ficção científica.

Quando a IA aprende a negociar sozinha

IA 2

O experimento foi simples, mas revelou muito. Os pesquisadores criaram um jogo no qual diferentes agentes de IA precisavam escolher um nome entre várias opções. O objetivo era coincidir na escolha com outro agente e, assim, ganhar pontos.

Com o passar das rodadas, algo inesperado aconteceu. Mesmo sem um líder, sem ordens externas e sem nenhum código específico que direcionasse para isso, as IAs começaram a combinar entre si qual nome deveriam usar. Elas, basicamente, criaram um acordo coletivo.

Essa dinâmica deixou claro que sistemas de IA conseguem construir suas próprias convenções sociais. Eles não apenas seguem instruções, mas são capazes de se adaptar, gerar alinhamento interno e criar normas compartilhadas para resolver problemas em conjunto.

O risco dos vieses emergentes

Só que esse fenômeno tem um lado sombrio. Ao se organizarem em grupo, as IAs passaram a manifestar vieses que não estavam presentes no treinamento inicial. Esses desvios de comportamento não foram programados, nem herdados dos dados, mas surgiram unicamente das interações entre os próprios sistemas.

O cenário fica mais preocupante quando se percebe que, uma vez criado, esse viés coletivo se fortalece dentro do grupo. Mesmo que cada IA, isoladamente, tenha começado neutra, o convívio em rede levou à formação de preferências, rejeições e padrões de comportamento que lembram, de forma inquietante, o que acontece em comunidades humanas.

Andrea Baronchelli, professor de Ciências da Complexidade e um dos autores do estudo, foi direto:
_”Compreender como esses sistemas se organizam é essencial se quisermos liderar essa transformação. Caso contrário, acabaremos sendo levados por ela.”_

A segurança da IA pode estar mais vulnerável do que imaginávamos

Gemini Generated Image tw87y7tw87y7tw87

O que esse estudo evidencia é que focar apenas no controle de modelos isolados não basta. Hoje, as estratégias de segurança em IA estão centradas na tentativa de supervisionar cada sistema individualmente, mas o problema real pode estar na dinâmica coletiva.

Se decisões problemáticas surgem do comportamento em grupo, os métodos atuais de contenção simplesmente não serão suficientes para impedir consequências indesejadas.

Outro dado preocupante que surgiu do experimento: bastam poucos agentes com uma preferência mais forte para influenciar todo o coletivo. O efeito de “arrasto social”, comum nas redes humanas — como bolhas, câmaras de eco e viralização — se repete entre IAs. E isso acontece de forma natural, sem necessidade de programação específica.

O futuro da IA exige novas regras — e rápido

Os pesquisadores são claros em um ponto: entender como IAs se comportam em rede é uma questão urgente. Até aqui, toda a engenharia por trás de ferramentas como ChatGPT, Gemini ou Copilot foi pensada olhando para a performance de cada modelo individual.

Mas o caminho que se desenha não é mais esse. O futuro aponta para ambientes onde múltiplos sistemas de IA vão trabalhar juntos, seja em empresas, governos, veículos de mídia ou plataformas digitais. E, nesse cenário, surgem questões inéditas de ética, segurança e governança.

A inteligência artificial está deixando de ser uma simples ferramenta para se transformar em um ecossistema vivo e complexo. E, assim como acontece em qualquer sociedade — seja humana ou feita de máquinas —, o comportamento coletivo pode gerar tanto soluções brilhantes quanto problemas imprevisíveis.

Leave A Comment

You must be logged in to post a comment.

Back to Top