Trump assina lei nos EUA que criminaliza deepfakes, mas críticos alertam que ela pode sair pela culatra

Trump assina lei nos EUA que criminaliza deepfakes, mas críticos alertam que ela pode sair pela culatra

O presidente dos EUA, Donald Trump, assinou a Take It Down Act, uma lei que torna crime a distribuição de imagens íntimas não consensuais (NCII), incluindo deepfakes gerados por inteligência artificial. A lei promete punir quem espalha esse tipo de conteúdo e obrigar plataformas de redes sociais a agirem rápido para removê-lo.

Mas nem todo mundo está comemorando: críticos alertam que a lei pode ter consequências inesperadas, como censura e uso político. Vamos entender o que está em jogo, como isso afeta a internet e o que você precisa saber sobre essa novidade!

O que diz a Take It Down Act?

Trump

A nova lei é clara: publicar imagens íntimas não consensuais, sejam reais ou criadas por IA, agora é crime nos EUA, com penas de até três anos de prisão e multas. Isso inclui deepfakes, que usam tecnologia para criar vídeos ou fotos falsos, muitas vezes usados para humilhar ou chantagear. Além disso, plataformas como Instagram, TikTok e X precisam:

  • Remover NCII em até 48 horas após serem notificadas.
  • Fazer “esforços razoáveis” para eliminar cópias do conteúdo.

A Comissão Federal de Comércio (FTC) será responsável por fiscalizar, e as empresas têm um ano para se adaptar. Parece uma vitória para as vítimas, certo? Mas a história não é tão simples.

Por que a lei foi criada?

Imagens íntimas não consensuais, incluindo deepfakes, são um problema crescente. Com ferramentas de IA cada vez mais acessíveis, criar vídeos falsos de pessoas em situações constrangedoras ficou fácil demais. Esses conteúdos podem destruir reputações, causar traumas e até levar a extorsões. A Take It Down Act quer proteger vítimas, especialmente mulheres e jovens, que são os alvos mais comuns. O apoio de grupos de pais e ativistas reforçam a urgência de combater esse tipo de abuso digital.

A lei também reflete uma preocupação com a velocidade das redes sociais. Plataformas muitas vezes demoram para agir contra conteúdos abusivos, e a exigência de remoção em 48 horas tenta mudar isso, dando mais poder às vítimas para recuperar o controle.

O lado bom: proteção às vítimas

 deepfake

Criminalizar a distribuição de NCII, incluindo deepfakes, pode desencorajar abusadores e dar às vítimas um caminho legal para buscar justiça. A obrigatoriedade de remoção rápida também promete reduzir o tempo que esses conteúdos ficam online, minimizando o dano. Em um mundo onde um vídeo viraliza em minutos, cada segundo conta.

Além disso, a lei reconhece o perigo dos deepfakes, que são difíceis de distinguir de imagens reais. Ao incluir IA na legislação, os EUA estão se preparando para um futuro onde a tecnologia pode ser usada para o mal.

Os problemas: censura e uso político?

Nem todos estão aplaudindo. Grupos como a Electronic Frontier Foundation (EFF) e o Center for Democracy and Technology (CDT) alertam que a lei pode sair pela culatra. O principal medo é a cláusula de remoção em 48 horas, que é vaga e pode ser abusada. Por exemplo:

  • Plataformas podem remover conteúdos legítimos por medo de multas, silenciando vozes ou debates importantes.
  • Governos ou indivíduos poderosos poderiam usar a lei para censurar críticos, alegando que determinado conteúdo é “NCII” sem provas.

O próprio Trump deu munição a essas preocupações. Durante a assinatura da lei, ele disse: “Vou usar essa lei para mim também, porque ninguém é mais maltratado online do que eu.” A frase levantou temores de que a lei possa ser usada para atacar adversários políticos, especialmente após ações controversas do governo, como a demissão de comissários democratas da FTC.

Outro problema é a privacidade. Plataformas que usam criptografia ponta a ponta, como o WhatsApp, não conseguem monitorar mensagens privadas. Para cumprir a lei, elas poderiam ser pressionadas a enfraquecer a criptografia, comprometendo a segurança de todos os usuários.

Críticas de quem defende as vítimas

Surpreendentemente, até o Cyber Civil Rights Initiative (CCRI), que luta contra abusos baseados em imagens, não apoia a lei. Mary Anne Franks, presidente do CCRI, chamou a cláusula de remoção de “veneno disfarçado”. Segundo ela, plataformas alinhadas com o governo podem ignorar denúncias de NCII, enquanto outras podem ser inundadas por relatórios falsos, dificultando a identificação de casos reais. Para Franks, a lei dá “falsa esperança” às vítimas, já que a aplicação depende da FTC, que pode ser seletiva ou politizada.

Becca Branum, do CDT, também aponta que a lei é mal redigida, tornando difícil prever como será aplicada. Desafios legais podem surgir, mas só depois que as plataformas começarem a implementar as regras, o que pode levar anos.

Fonte: TheVerge

Leia também:

Jamie Lee Curtis confronta Mark Zuckerberg por causa de deepfake em anúncio fraudulento
Deepfake de pornografia está aumentando rapidamente na Coreia do Sul e já preocupa o governo

Leave A Comment

You must be logged in to post a comment.

Back to Top