ChatGPT pode vazar conversas e informações pessoais dos usuários, segundo investigação
Em uma investigação, foram identificadas algumas falhas que podem comprometer a segurança das pessoas
Uma empresa especializada em segurança cibernética chamada Tenable Research promoveu uma investigação aprofundada para descobrir se haviam vulnerabilidades graves que pudessem comprometer a segurança e informações dos usuários do ChatGPT. Com os resultados, foram identificadas sete falhas no ChatGPT-4o, algumas das quais permanecem presentes também até no ChatGPT-5.
Todas as falhas em conjunto foram denominadas de “HackedGPT” e ele permite que criminosos virtuais burlem mecanismos de proteção e acessem livremente dados pessoais, históricos de conversa e, principalmente, memórias armazenadas pelos usuários da ferramenta. Além disso, essas invasões possibilitam o roubo de informações, a manipulação de respostas e ataques dentro do sistema de IA.
VEJA MAIS
Principais falhas no Chat GPT:
Entre as sete falhas do Chat GPT, quatro delas se destacam pela gravidade, sendo:
- Injeção indireta de prompt por sites confiáveis: a ferramenta lê comandos escondidos em páginas legítimas e passa a executá-los;
- Ataques “0-clique” e “1-clique”: o comprometimento acontece sem interação direta ou com apenas um clique em um link malicioso;
- Injeção de memória persistente: códigos maliciosos podem ser armazenados na memória de longo prazo da Inteligência Artificial (IA), permanecendo ativos mesmo após o encerramento da sessão, o que possibilita vazamentos contínuos de informações em futuras conversas;
- Omissão de segurança e ocultação de conteúdo: erros de validação e formatação possibilitam mascarar comandos maliciosos, enganando o modelo e os usuários.
(Victoria Rodrigues, estagiária de Jornalismo, sob supervisão de Felipe Saraiva, editor web em Oliberal.com)
Palavras-chave
COMPARTILHE ESSA NOTÍCIA