ChatGPT não é terapeuta: Altman destaca riscos ao compartilhar segredos pessoais

ChatGPT não é terapeuta: Altman destaca riscos ao compartilhar segredos pessoais

Desabafar com o ChatGPT sobre problemas pessoais pode parecer inofensivo, mas Sam Altman, CEO da OpenAI, acaba de fazer um alerta preocupante: diferentemente de conversas com psicólogos ou advogados, suas confidências no chatbot não estão protegidas por lei. Isso significa que, em uma situação legal, suas revelações mais íntimas poderiam ser usadas contra você em tribunal, sem qualquer privilégio de confidencialidade.

O executivo expressou sua preocupação durante participação no podcast “This Past Weekend”, onde abordou o uso crescente da ferramenta como substituto para terapia, especialmente entre jovens. A falta de regulamentação adequada para a privacidade dessas interações representa um risco significativo que muitos usuários desconhecem.

Você também pode gostar dos artigos abaixo:

“As pessoas falam sobre as coisas mais pessoais de suas vidas com o ChatGPT. Jovens o utilizam como terapeuta e coach de vida; estão tendo problemas de relacionamento e perguntando ‘O que devo fazer?’”, revelou Altman. “Neste momento, se você fala com um terapeuta, advogado ou médico sobre esses problemas, existe um privilégio legal. Há confidencialidade entre médico e paciente, há confidencialidade legal, o que for. E ainda não descobrimos isso para quando você fala com o ChatGPT.”

O problema central destacado pelo CEO é que a legislação não acompanhou o ritmo acelerado de evolução da inteligência artificial. Enquanto profissionais de saúde mental e jurídicos possuem proteções legais sólidas para manter o sigilo das informações compartilhadas por seus clientes, as plataformas de IA simplesmente não desfrutam dos mesmos privilégios.

Why Using ChatGPT As Therapy Is Dangerous | by Stephanie Priestley | Medium

Um cenário particularmente alarmante seria um processo judicial no qual a OpenAI fosse intimada a fornecer registros de conversas. A empresa não teria base legal para recusar tal solicitação, diferentemente de um terapeuta que pode invocar a confidencialidade profissional. Isso poderia expor informações extremamente sensíveis compartilhadas pelo usuário durante momentos de vulnerabilidade emocional.

O mundo está ficando cada vez mais dependente da IA

Essa situação torna-se ainda mais relevante considerando a crescente dependência de ferramentas de IA no dia a dia. Muitos usuários recorrem ao ChatGPT não apenas para tarefas profissionais ou acadêmicas, mas também para aconselhamento pessoal, desabafos emocionais e até mesmo discussões sobre situações legalmente sensíveis, sem perceber as potenciais implicações.

Altman reconhece que a IA deveria idealmente ter os mesmos direitos à privacidade que profissionais humanos em posições de confiança, mas enfatiza que essa é uma questão que ainda precisa ser adequadamente abordada pelos legisladores. “Nós não resolvemos isso ainda”, admitiu o executivo, sinalizando que a evolução da tecnologia avançou mais rapidamente que os marcos regulatórios necessários.

O alerta do CEO da OpenAI surge em um momento de crescente escrutínio sobre as práticas de privacidade e segurança das empresas de IA. Recentemente, pesquisadores também identificaram vulnerabilidades em ferramentas como o ChatGPT e o Gemini (do Google), que podem ser manipuladas com prompts específicos para revelar conteúdo restrito, aumentando ainda mais as preocupações sobre quão seguras essas plataformas realmente são para o compartilhamento de informações sensíveis.

Fonte: WCCFTech

Leave A Comment

You must be logged in to post a comment.

Back to Top