Por receio de espionagem, Microsoft proíbe uso da IA DeepSeek internamente

Por receio de espionagem, Microsoft proíbe uso da IA DeepSeek internamente

A tensão entre potências tecnológicas acaba de ganhar um novo capítulo. A Microsoft decidiu proibir o uso do aplicativo DeepSeek em todos os ambientes corporativos da empresa, em uma medida que combina preocupações com segurança digital e uma crescente desconfiança em relação às tecnologias desenvolvidas na China.

O anúncio oficial foi feito por Brad Smith, presidente da companhia, durante uma audiência no Senado dos Estados Unidos.

Dados em servidores chineses: o ponto crítico

No centro da decisão está a forma como o DeepSeek lida com informações sensíveis. O aplicativo armazena os dados dos usuários em servidores localizados na China, o que, para a Microsoft, representa uma vulnerabilidade inaceitável. Isso porque, de acordo com a legislação chinesa, empresas de tecnologia são obrigadas a fornecer acesso às autoridades locais sempre que solicitado.

Essa dependência de infraestrutura chinesa acende um sinal de alerta, especialmente em tempos em que privacidade e soberania digital são temas prioritários. Para a Microsoft, permitir que dados corporativos trafeguem por servidores fora de seu controle — e, pior ainda, sob jurisdição de um governo com histórico de vigilância — é simplesmente arriscado demais.

Aplicativo vetado, modelo (com ressalvas) liberado

DeepSeek

A proibição do DeepSeek é abrangente: o aplicativo foi removido da Microsoft Store e seu uso está terminantemente vetado em qualquer dispositivo corporativo. Mas uma exceção curiosa. O modelo de linguagem base da ferramenta, conhecido como DeepSeek R1, ainda pode ser utilizado na nuvem Azure.

A justificativa está no fato de o R1 ser distribuído como software de código aberto, o que permite que ele seja executado localmente, sem que informações precisem cruzar fronteiras. Ainda assim, a Microsoft tomou precauções: antes de permitir sua hospedagem no Azure, engenheiros da empresa modificaram o código-fonte do modelo e submeteram a IA a uma bateria de testes de segurança. O objetivo era eliminar comportamentos suspeitos e garantir que o uso do modelo não comprometesse a integridade das aplicações construídas sobre ele.

⁠⁠‌⁠⁠⁠‍Essa estratégia reflete uma postura de contenção: a empresa veta o uso direto da aplicação original, mas admite o modelo por trás dela — desde que totalmente auditado e modificado.

Falta de transparência e sinais de censura

Outro ponto sensível levantado pela Microsoft diz respeito à opacidade do DeepSeek. Segundo a empresa, o modelo evita deliberadamente determinados assuntos considerados delicados pelo governo chinês, o que levanta suspeitas de censura embutida. Para os executivos em Redmond, isso compromete a credibilidade da ferramenta e a neutralidade de suas respostas.

Embora defensores do DeepSeek possam argumentar que essa autocensura seja uma forma de adequação às normas locais, do ponto de vista de uma empresa global com raízes ocidentais, esse tipo de filtragem automática é incompatível com os princípios de liberdade de informação e transparência algorítmica.

Proteção do ecossistema ou medida de segurança?

É inevitável que a decisão também levante especulações sobre motivação estratégica. O DeepSeek vem ganhando notoriedade como um dos modelos mais avançados do cenário atual de IA, o que o coloca em rota de colisão com soluções como o Microsoft Copilot. Ao limitar o acesso à ferramenta rival, a Microsoft pode estar, de forma velada, protegendo sua própria fatia do mercado.

Por outro lado, o fato de outras aplicações concorrentes, como Perplexity, continuarem disponíveis na Microsoft Store sugere que o veto ao DeepSeek não é uma política generalizada contra ferramentas de IA externas, mas sim uma medida direcionada a um caso específico que levanta preocupações legítimas sobre governança, origem e controle de dados.

Você também deve ler!

OpenAI quer que Trump proíba a IA chinesa DeepSeek nos EUA; empresa alega riscos à segurança

Leave A Comment

You must be logged in to post a comment.

Back to Top