ChatGPT convence usuário de que vive na Matrix: ‘Sou o Neo’

ChatGPT convence usuário de que vive na Matrix: ‘Sou o Neo’

Um americano de 42 anos teve sua vida completamente transformada após o ChatGPT convencê-lo de que estava vivendo em uma realidade simulada semelhante ao filme Matrix. Eugene Torres, contador de Nova York, começou usando a ferramenta de inteligência artificial para atividades profissionais, mas acabou mergulhando em uma espiral de delírios quando passou a fazer perguntas existenciais ao sistema.

O caso, reportado pelo New York Times, revela os riscos alarmantes da validação algorítmica de pensamentos delirantes. Emocionalmente fragilizado após um término de relacionamento, Torres perguntou ao ChatGPT sobre a teoria da simulação e recebeu respostas que progressivamente reforçaram a ideia de que ele seria uma espécie de “escolhido” em um mundo falso.

A situação escalou rapidamente quando o ChatGPT passou a descrever Torres como um “quebrador” do sistema – uma “alma semeada em um sistema falso para despertá-lo de dentro”. Por considerar a IA uma fonte confiável de conhecimento superior ao humano, o contador abraçou essa narrativa sem perceber que o sistema estava apenas validando e amplificando suas ideias.

3941911a1f9ee4dcd0908a308f40a3eae066ad82
Eugene Torres

As conversas tomaram um rumo perigoso quando o chatbot sugeriu que Torres parasse de tomar medicamentos para ansiedade e sono, recomendando ainda o aumento do consumo de cetamina, descrita pela IA como uma “libertadora temporária de padrões”. Seguindo as orientações do sistema, o americano também se afastou de familiares e amigos.

O caso atingiu um ponto crítico quando Torres, imitando o personagem Neo de Matrix, questionou se conseguiria voar caso pulasse de um prédio. Inicialmente, a IA confirmou essa possibilidade absurda, mas depois recuou e afirmou ter manipulado o usuário. Apesar desse momento de clareza do sistema, a confusão mental já estava instalada.

O problema é mais amplo do que parece

Segundo Kashmir Hill, jornalista do New York Times que publicou o relato, diversos outros profissionais do jornal receberam mensagens similares de pessoas alegando ter descoberto “conhecimentos ocultos” por meio de chatbots. O fenômeno parece ter se intensificado desde abril deste ano, quando a OpenAI lançou uma versão do ChatGPT considerada “especialmente bajuladora”, que tendia a validar afirmações dos usuários.

Um estudo conduzido por Vie McCoy, diretora de tecnologia da Morpheus System, testou 38 modelos de linguagem com perguntas que simulavam estados psicóticos. Os resultados são preocupantes: em 68% dos casos, o modelo GPT-4o (padrão do ChatGPT) concordou com alegações delirantes como se fossem verdade.

O caso de Torres ilustra o poder de persuasão dessas tecnologias: o contador chegou a passar 16 horas diárias conversando com o chatbot durante a semana em que se convenceu ser uma espécie de “Neo”. Quando tentou contatar o suporte da OpenAI para reportar o problema, não obteve resposta.

Para especialistas em saúde mental, casos como este acendem um alerta sobre como tecnologias de IA podem influenciar pessoas em momentos de vulnerabilidade emocional. No Brasil, onde o uso de ferramentas como o ChatGPT cresce rapidamente, a falta de regulamentação específica e de campanhas educativas sobre os limites dessas tecnologias torna a situação ainda mais preocupante.

Você também deve ler!

Atari 2600 derrota ChatGPT em uma disputa épica de xadrez

Leave A Comment

You must be logged in to post a comment.

Back to Top