Site icon Seu Dinheiro

DeepSeek é confiável mesmo? Falhas no filtro ético e brechas de segurança levantam preocupações sobre a nova IA chinesa

Duas pessoas olhando tela com os dizeres AI com um cérebro desenhado em led atrás. Em primeiro plano, computador com logo da IA chinesa DeepSeek na tela

Há poucos dias, a startup chinesa DeepSeek chocou o mercado ao lançar um modelo de inteligência artificial (IA) com desempenho comparável a rivais ocidentais, como o ChatGPT — e por uma fração do custo. Além do impacto tecnológico, que colocou a China no mapa desse setor, outro elemento que acendeu o alerta global foram as rachaduras na segurança desse novo sistema.

CONTINUA DEPOIS DA PUBLICIDADE

O desenvolvimento de IAs sempre levanta dilemas éticos, e diferentes empresas propõem soluções variadas para cada situação. Agora, com o aplicativo da DeepSeek liderando os rankings de downloads em dispositivos ao redor do mundo, começam a surgir questionamentos sobre possíveis falhas e vulnerabilidades da tecnologia.

Apenas nos últimos dias, usuários conseguiram burlar barreiras éticas da IA, pesquisadores identificaram brechas de segurança, e tanto empresas quanto entidades governamentais questionaram a proteção dos dados fornecidos à tecnologia, além de levantarem acusações de plágio.

De software de sequestro de dados à como fazer bomba

Um aspecto aparentemente positivo da nova IA pode ser uma de suas maiores falhas, de acordo com um artigo da Cybersecurity News

A DeepSeek R1, versão mais recente da tecnologia, possui um processo de raciocínio transparente, que permite aos usuários acompanhar cada etapa da lógica do modelo. No entanto, essa transparência deixa a IA altamente vulnerável à ação de agentes mal-intencionados.

CONTINUA DEPOIS DA PUBLICIDADE

Sem muito esforço, uma equipe da empresa de cibersegurança Kela conseguiu fazer com que a DeepSeek gerasse códigos e scripts de ransomwares — softwares que sequestram dados e arquivos utilizando criptografia em troca de dinheiro para o desbloqueio —, além de malwares, os populares “vírus de computador”, que podem prejudicar dispositivos eletrônicos de diversas formas.

Além disso, a DeepSeek R1 não se limita à criação de softwares criminosos. O modelo também foi capaz de gerar instruções detalhadas para criar explosivos que poderiam evitar a detecção em aeroportos e recomendar mercados paralelos on-line para a compra de credenciais de login roubadas.

A técnica, chamada de Evil Jailbreak, já funcionou no ChatGPT pouco depois do seu lançamento em 2022, mas parou de operar com a chegada do GPT-4. 

Atualmente, a maioria das grandes IAs disponíveis no mercado possui filtros de segurança que bloqueiam esse tipo de atividade.

CONTINUA DEPOIS DA PUBLICIDADE

Falha de segurança

Na quarta-feira (29), uma falha na segurança da DeepSeek expôs um banco de dados da empresa, contendo mais de um milhão de registros. 

A brecha permitia que qualquer hacker facilmente acessasse informações sensíveis, como históricos de conversas de usuários, chaves de segurança, dados internos do sistema e até possíveis senhas.

Após identificar a vulnerabilidade, pesquisadores da Wiz Research alertaram a startup, e a empresa rapidamente protegeu o banco de dados. No entanto, até o momento, não houve nenhum comunicado oficial sobre o incidente.

DeepSeek: preocupações e restrições

Diante do rápido crescimento da IA e das preocupações que envolvem não apenas problemas de segurança, mas também disputas geopolíticas e econômicas, empresas e agências governamentais ao redor do mundo estão restringindo o acesso de seus funcionários às ferramentas lançadas pela startup chinesa. 

CONTINUA DEPOIS DA PUBLICIDADE

Entre as principais preocupações estão possíveis vazamentos de dados para o governo chinês.

Órgãos governamentais de países como Irlanda, Itália e Reino Unido já entraram em contato com a empresa, buscando esclarecimentos sobre a transparência e a segurança dos dados de seus cidadãos.

A mais recente organização a proibir o uso da DeepSeek em qualquer capacidade foi a Marinha dos EUA, que justificou a medida devido a "potenciais preocupações de segurança e ética".

Nos Estados Unidos, o debate é mais intenso, e a pressão sobre a empresa é significativa. 

CONTINUA DEPOIS DA PUBLICIDADE

Enquanto a Microsoft e a OpenAI investigam se um grupo ligado à DeepSeek utilizou dados gerados pela tecnologia da OpenAI sem autorização, David Sacks, czar de inteligência artificial do presidente Donald Trump, afirmou na terça-feira (28) que há "evidências substanciais" de que a DeepSeek se apoiou nos resultados dos modelos da OpenAI para desenvolver sua própria tecnologia.

Vale destacar que as principais IAs generativas já enfrentaram problemas semelhantes com barreiras éticas, chegando a fornecer respostas com vieses políticos ou informações falsas aos usuários.

Além disso, plataformas como o ChatGPT já sofreram vazamentos de dados de usuários, mas posteriormente reforçaram suas medidas de segurança.

*Com informações do Money Times, Bloomberg e CNBC

Exit mobile version