DeepSeek é mais ‘perigosa’ que o ChatGPT? Veja o que a IA chinesa pode saber sobre o usuário

Políticas de privacidade alertaram países do ocidente após IA chinesa ganhar destaque em todo o mundo

PUBLICIDADE

Foto do author Mariana Cury
Atualização:

O chatbot chinês de inteligência artificial (IA) DeepSeek, que se popularizou nas últimas semanas, vem chamando atenção do mundo não só por sua qualidade mas, também, pelo seu nível de transparência no uso de dados dos usuários - países como Itália, Taiwan e Austrália, por exemplo, restringiram o uso da IA por não considerarem que a empresa fornece informações o suficiente sobre o seu funcionamento.

A empresa disponibiliza sua política de privacidade em seu site. Entretanto, o texto só está disponível em inglês, o que contraria uma interpretação sistêmica da Lei Geral de Proteção de Dados (LGPD), que exige que todas as normas de uma empresa que funciona no Brasil estejam disponíveis em português.

Empresa coleta dados de usuários de três maneiras diferentes Foto: Andy Wong/AP

PUBLICIDADE

Segundo os termos de uso da DeepSeek, a empresa coleta dados de três maneiras diferentes, por meio das informações do perfil, pelos inputs - que são os comandos dados ao chatbot pelo usuário - e por meio das informações que o usuário fornece quando contata empresa de IA.

A empresa afirma que, nas informações de perfil, são coletadas as “informações que você fornece ao criar uma conta, como sua data de nascimento (quando aplicável), nome de usuário, endereço de e-mail e/ou número de telefone e senha”. Além disso, “entrada de texto ou áudio, avisos, arquivos carregados, feedback, histórico de bate-papo ou outros conteúdos que você fornece ao nosso modelo e aos nossos Serviços”, também são usadas pela IA.

Publicidade

O chatbot ainda não oferece a opção de não compartilhamento de dados para o treinamento do modelo de IA, o que pode ser um fator de alerta entre os usuários.

“A informação colocada ali pode ser usada de maneira direta ou indireta e não é possível saber para qual finalidade. Isso é um risco, principalmente, para ambientes corporativos, que possuem uma série de informações sensíveis”, explica Anderson Soares, coordenador científico do Centro de Excelência em Inteligência Artificial da UFG.

Marcelo Crespo, advogado e coordenador de direito da ESPM, diz que, por enquanto, os termos de uso de dados da DeepSeek ainda não estão totalmente de acordo com a legislação brasileira pelo fato da empresa ainda ser muito nova. “É muito difícil que um produto lançado na China já esteja em conformidade com as legislações do resto do mundo”, diz.

Crespo relembra que outras empresas internacionais, como o WhatsApp, Uber, Instagram e o ChatGPT, por exemplo, também passaram por esse processo de adequação com as leis brasileiras quando chegaram ao País.

Publicidade

“Essas empresas vão buscando um ajuste na sua prática para poder continuar com seus negócios. A medida que a DeepSeek tiver uma maior interação com o Brasil, essa adequação vai acabar acontecendo”.

‘Unsupervised learning’

Uma questão da DeepSeek que chamou atenção das autoridades é o fato da empresa treinar seus modelos de IA sem supervisão humana, usando o método chamado de “unsupervised learning”. Outras empresas de IA, como o Google e a OpenAI, também possuem coletas de dados que funcionam de maneira similar às da DeepSeek. A diferença mais aparente, no entanto, é o método que a empresa chinesa usa.

Helena Secaf, coordenadora de pesquisa do InternetLab, explica que, com o método, a máquina recebe dados crus e identifica padrões sozinha, sem instruções prévias. A especialista diz que essa lógica, por si só, não é perigosa, mas pode trazer riscos dependendo do setor e propósito que é aplicada.

“Como esses modelos aprendem a partir dos dados disponíveis, se esses dados já tiverem algum viés, o algoritmo pode reforçá-lo sem que os desenvolvedores percebam”, explica a especialista. “Sobre a questão da falta de transparência, os algoritmos identificam padrões de forma tão complexa que, muitas vezes, se torna difícil para humanos explicarem ou entenderem como uma decisão foi tomada, o que dificulta auditorias em casos de erros ou injustiças. Por isso, usar esse tipo de modelo em áreas com grandes impactos na vida das pessoas e aos seus direitos – como concessão de crédito ou segurança – pode apresentar perigos relevantes”, diz Helena.

Publicidade

Esse tipo de método pode fazer com que a IA reproduza expressões preconceituosas, por exemplo, pois não há um filtro humano. “O robô coleta qualquer tipo de informação para montar um banco de dados cada vez maior. Se alguém ficar falando coisas extremamente pesadas no chatbot, isso vai acabar parando na base de treinamento da IA”, reforça Soares.

Apesar disso, a LGPD não prevê supervisão necessária para o treinamento de modelos de IA no Brasil. “Não temos uma lei específica no Brasil que exija supervisão humana. A LGPD diz que casos de processos automatizados devem ter um recurso de contestação. Mas, mesmo assim, esse recurso não precisa ser supervisionado por um humano”, explica Crespo.

Uso de dados na China

Publicidade

Outra questão informada nas políticas de privacidade no site da DeepSeek é o fato da empresa armazenar os dados enviados ao chatbot na China, o que aparentou ser um tópico sensível entre autoridades ocidentais.

“Em geral, essa preocupação tem se justificado a partir da ideia de que, com o armazenamento dos dados pessoais do DeepSeek na China, há regras chinesas que obrigam as empresas a fornecer informações às autoridades de inteligência quando solicitado”, explica Helena.

A especialista reforça dizendo que nunca é interessante fornecer dados sensíveis a nenhum chatbot, independente de qual seja a plataforma. “Qualquer modelo de IA acessível ao público, seja via web ou aplicativo – incluindo a DeepSeek e outros –, armazena tanto as perguntas enviadas pelos usuários (prompts) quanto as respostas geradas, tornando esses dados acessíveis aos desenvolvedores do modelo”, diz.

No entanto, para além dessa questão, a preocupação envolve uma grande disputa geopolítica entre os Estados Unidos e a China pelo avanço na produção de IAs. “Há uma estratégia nacional na China para facilitar o desenvolvimento da inteligência artificial”, diz Soares, da UFG.

Publicidade

O “alarde”, então, que países ocidentais vêm fazendo em relação a DeepSeek pode ser um meio de tentar frear essa corrida. “Quem garante que empresas como a Meta, por exemplo, também não espionam nossos dados?”, aponta Crespo, da ESPM.

*Mariana Cury é estagiária sob supervisão do editor Bruno Romani