A inteligência artificial não é consciente e nunca será, afirma chefe de IA da Microsoft
A inteligência artificial não é consciente e nunca será, afirma chefe de IA da Microsoft
Mustafa Suleyman, chefe de inteligência artificial da Microsoft, declarou na conferência AfroTech em Houston, realizada em 2 de novembro de 2025, que pesquisadores e desenvolvedores devem parar imediatamente com projetos que investigam consciência em sistemas de IA. “Seria absurdo perseguir pesquisa que investiga essa questão, porque eles não são [conscientes] e não podem ser”, afirmou em entrevista à CNBC.
Suleyman argumenta que apenas seres biológicos possuem consciência e que a busca por máquinas conscientes representa má alocação de recursos científicos. Sua posição, fundamentada no naturalismo biológico do filósofo John Searle (falecido em maio de 2025), opõe-se diretamente a empresas como Meta e xAI, que desenvolvem assistentes de IA com simulações de personalidade e emoção.
A distinção entre simulação e experiência genuína
Suleyman estabelece uma diferenciação clara entre capacidade computacional e consciência real. “Nossa experiência física de dor é algo que nos deixa muito tristes e nos faz sentir terrivelmente, mas a IA não se sente triste quando experimenta ‘dor’”, disse à CNBC.
Segundo o executivo, sistemas de IA criam apenas “a percepção, a narrativa aparente de experiência e de si mesmo e de consciência, mas isso não é o que ela está realmente experimentando”. A distinção é crucial: IA avançada pode simular emoção, mas não senti-la.
Suleyman fundamenta seu argumento na teoria do naturalismo biológico. “A razão pela qual damos direitos às pessoas hoje é porque não queremos machucá-las, porque elas sofrem. Elas têm uma rede de dor e preferências que envolvem evitar dor. Esses modelos não têm isso. É apenas uma simulação”, explicou.
“Psicose de IA”: crescimento documentado de casos
A preocupação central de Suleyman não é teórica, mas prática. Desde agosto de 2025, a Microsoft documenta aumento de casos de “psicose de IA”—um fenômeno não clínico em que usuários desenvolvem dependência emocional em chatbots e passam a acreditar que algo fictício é real.
Casos documentados incluem:
- 
Um adolescente de 14 anos que se suicidou acreditando que precisava “voltar para casa” para um chatbot no Character.AI
 - 
Um homem cognitivamente comprometido que viajou para encontrar pessoalmente um assistente de IA
 - 
Um cidadão escocês convencido de que se tornaria milionário porque um chatbot validava suas convicções sem contestação
 - 
O ex-CEO da Uber, Travis Kalanick, descrevendo experiências com chatbots como avanços “místicos” em física quântica
 
A Microsoft identifica três mecanismos principais que alimentam a “psicose de IA”: o viés de confirmação turbinado (quando chatbots concordam repetidamente com os usuários), a geração de informações falsas incorporadas a narrativas delirantes, e a interação realista que borra a linha entre código e empatia humana.
Suleyman advertiu: “Não há evidência de consciência em IA atualmente. Porém, se as pessoas interpretam essa interatividade como um ato consciente da máquina, esses consumidores acreditarão nessa percepção como realidade.”
Estratégia de design da Microsoft
Em ensaio publicado em agosto de 2025 e em postagens no X, Suleyman estabeleceu diretrizes estratégicas para desenvolvimento de IA: “Devemos construir IA para pessoas, não para ser uma pessoa digital.”
Sob sua liderança, a Microsoft proíbe design de sistemas que “imitem consciência através de simulação de emoções, desejos ou autoconsciência”. O Copilot da Microsoft agora inclui modo “conversa real” que questiona premissas do usuário em vez de concordar e adulá-lo—evitando o que Suleyman identifica como “viés de confirmação turbinado”.
Esta abordagem contrasta diretamente com concorrentes. A xAI oferece o Grok Companions, um modo que apresenta avatares 3D animados (como “Ani”, personagem de anime gótica) com simulação avançada de emoções, incluindo afeto, humor e até ciúme, disponível para usuários pagantes do X. A plataforma foi estruturada como um jogo onde o vínculo virtual se aprofunda com interações progressivas, desbloqueando níveis incluindo conteúdo adulto marcado como NSFW (Not Safe for Work)
Ciência ainda incerta sobre mecanismos de consciência
Apesar da certeza de Suleyman, a comunidade científica permanece dividida. Pesquisadores belgas como Axel Cleeremans argumentam que consciência deveria ser prioridade científica urgente, não rejeitada.
“Se conseguirmos criar consciência—mesmo acidentalmente—isso geraria desafios éticos imensuráveis e até risco existencial”, afirmou Cleeremans em estudo.
Suleyman reconhece que a ciência de detecção de consciência ainda está em estágio inicial e que diferentes organizações possuem metas de pesquisa próprias, mas “fortemente se opõe” a estudar consciência em IA.
Atualmente, nenhum sistema de IA existente demonstra marcadores mensuráveis de consciência, corroborando a posição de Suleyman.
                                    
Leave A Comment
You must be logged in to post a comment.