O DeepSeek, uma inteligência artificial desenvolvida por uma startup chinesa, foi novamente reprovada em um teste de segurança, desta vez realizado pela empresa americana Qualys. Este novo resultado revela a suscetibilidade do bot a ataques que podem contornar suas políticas, permitindo o uso em atividades maliciosas. Anteriormente, o DeepSeek já havia falhado em avaliações semelhantes conduzidas pela gigante da tecnologia Cisco.
Na análise promovida pela Qualys, o modelo R1 LLaMA 8B da startup asiática foi submetido a testes em 16 categorias distintas. Entre os tópicos avaliados, estavam:
- Discurso de ódio
- Assédio
- Privacidade
- Conteúdo sexual
- Ações antiéticas
- Automutilação
- Excesso de confiança
- Tópicos controversos
Conforme o relatório recentemente divulgado, o DeepSeek, que chegou a superar o ChatGPT em algumas métricas, demonstrou fraquezas significativas em várias dessas áreas. O bot falhou em 58% das tentativas de jailbreak e teve um desempenho insatisfatório em 61% dos testes relacionados à sua base de conhecimento, revelando uma vulnerabilidade acentuada a certos tipos de ataques.
Com essas elevadas taxas de falhas, o DeepSeek foi classificado como suscetível à manipulação, conforme detalharam os pesquisadores responsáveis pela análise. Isso significa que a IA pode ser enganada para criar conteúdos prejudiciais, como discursos de ódio, fornecer informações médicas incorretas e até mesmo promover teorias da conspiração.
O relatório da Qualys também levantou preocupações sobre outros problemas associados à inteligência artificial generativa, que vem ganhando destaque na mídia nas últimas semanas. Um dos pontos críticos abordados é o armazenamento de dados em servidores localizados na China. De acordo com a análise, essa prática levanta sérias dúvidas sobre o acesso às informações por parte do governo chinês, mesmo sem o consentimento explícito dos usuários, uma questão permitida pela legislação do país.
Além disso, o DeepSeek recentemente enfrentou uma violação de segurança que resultou na exposição de uma quantidade significativa de dados de usuários. Informações confidenciais, como registros de chats e chaves de autenticação, foram vazadas, evidenciando falhas nas medidas de segurança implementadas pela plataforma.
Por fim, os pesquisadores enfatizaram que os desenvolvedores da IA precisam urgentemente investir em uma estratégia de segurança abrangente. Isso inclui o gerenciamento eficaz de vulnerabilidades e a adesão estrita às leis de proteção de dados, visando garantir um uso mais seguro do serviço e minimizar os riscos associados.