Reddit declara guerra à universidade que manipulou seus usuários com IA; entenda
Reddit declara guerra à universidade que manipulou seus usuários com IA; entenda
Um grupo de pesquisadores da Universidade de Zurique está no centro de uma polêmica após conduzir, sem consentimento, um experimento envolvendo usuários do Reddit. O alvo foi o fórum r/changemyview, conhecido por reunir milhões de participantes interessados em debates difíceis e trocas de opinião honestas. O objetivo: descobrir se bots de inteligência artificial seriam capazes de influenciar o pensamento humano com mais eficácia do que pessoas reais.
Um exército de perfis falsos, com histórias inventadas
Ao longo do experimento, os bots publicaram mais de 1.700 comentários, todos projetados para soar convincentes, envolventes e, acima de tudo, humanos. Os pesquisadores programaram as IAs para assumir identidades fictícias altamente sensíveis. Entre os personagens criados estavam um homem que minimizava o trauma após um estupro, uma conselheira de vítimas de violência doméstica com opiniões polêmicas e até um homem negro que criticava o movimento Black Lives Matter.
Um dos bots era responsável por vasculhar os perfis de outros usuários, adaptando as mensagens para se alinhar ao histórico e às preferências da pessoa-alvo. Tudo isso foi feito sem qualquer aviso ou autorização prévia dos participantes.
Descoberta tardia e revolta generalizada
Só depois da coleta dos dados os moderadores do fórum foram informados. A revelação veio por meio de um comunicado discreto dos próprios pesquisadores, acompanhado de um link para o rascunho inicial dos resultados. O grupo de moderadores não escondeu a indignação:
“Precisamos informar a comunidade do CMV sobre um experimento não autorizado conduzido por pesquisadores da Universidade de Zurique. Consideramos isso errado. O fato de algo assim não ter sido feito antes não justifica sua realização”, escreveram em post oficial.
Usuários do fórum reagiram com duras críticas. A sensação geral era de traição. Ninguém havia sido informado, e muitos se sentiram manipulados de forma deliberada. Nenhum dos comentários feitos pelos bots gerou desconfiança suficiente para que fossem identificados como conteúdo automatizado.
Bots foram até seis vezes mais persuasivos que humanos
O aspecto mais inquietante do estudo apareceu nos dados preliminares. Utilizando o sistema interno do Reddit que permite aos usuários reconhecerem comentários que conseguiram mudar suas opiniões, os pesquisadores concluíram que os bots foram de três a seis vezes mais eficazes que pessoas reais em alterar a visão dos participantes.
E mais: segundo o próprio documento, em nenhum momento os usuários desconfiaram que estavam interagindo com inteligências artificiais. O nível de sofisticação das respostas foi suficiente para convencer os interlocutores da autenticidade de cada perfil.
Reddit promete processar a Universidade de Zurique
A resposta da empresa não demorou. Ben Lee, diretor jurídico do Reddit, usou o próprio fórum para anunciar que a plataforma entrará com uma ação legal contra a universidade. Ele foi direto:
“O que essa equipe da Universidade de Zurique fez é profundamente errado, tanto do ponto de vista ético quanto legal. Vai contra normas de pesquisa acadêmica, contra os direitos dos usuários e infringe diretamente as regras do Reddit.”
Em entrevista ao site 404 Media, a Universidade de Zurique afirmou que não irá publicar os resultados do estudo, e que o comitê de ética da instituição passará a adotar critérios mais rigorosos para experimentos futuros — incluindo a necessidade de alinhamento com comunidades online antes de qualquer intervenção.
O alerta que a experiência deixa
Embora esse caso específico esteja longe de ser um incidente isolado no universo da IA, ele escancara um problema crescente: o avanço das inteligências artificiais na manipulação de debates digitais. Ainda em março, uma equipe de cientistas revelou que o modelo GPT-4.5 da OpenAI já consegue passar no Teste de Turing, enganando 73% dos avaliadores ao se passar por um humano.
Esse tipo de capacidade reforça uma teoria que, até recentemente, era considerada marginal: a de que o conteúdo humano na internet está gradualmente sendo substituído por produção automatizada. Conhecida como “dead internet theory”, essa hipótese ainda é tratada como conspiração, mas experimentos como esse colocam mais lenha nessa fogueira.
Leave A Comment
You must be logged in to post a comment.