CONTINUE EM OLIBERAL.COM
X

ChatGPT pode vazar conversas e informações pessoais dos usuários, segundo investigação

Em uma investigação, foram identificadas algumas falhas que podem comprometer a segurança das pessoas

Victoria Rodrigues
fonte

Uma empresa especializada em segurança cibernética chamada Tenable Research promoveu uma investigação aprofundada para descobrir se haviam vulnerabilidades graves que pudessem comprometer a segurança e informações dos usuários do ChatGPT. Com os resultados, foram identificadas sete falhas no ChatGPT-4o, algumas das quais permanecem presentes também até no ChatGPT-5.

Todas as falhas em conjunto foram denominadas de “HackedGPT” e ele permite que criminosos virtuais burlem mecanismos de proteção e acessem livremente dados pessoais, históricos de conversa e, principalmente, memórias armazenadas pelos usuários da ferramenta. Além disso, essas invasões possibilitam o roubo de informações, a manipulação de respostas e ataques dentro do sistema de IA.

VEJA MAIS

image ChatGPT Atlas: OpenAI sinaliza lançamento de navegador próprio
O CEO da empresa republicou o vídeo e disse estar "bastante animado" para o lançamento do novo produto

image Ex-United revela que usou ChatGPT para fechar contrato: 'Melhor agente que já tive'

Biblioteca versus ChatGPT

Principais falhas no Chat GPT:

Entre as sete falhas do Chat GPT, quatro delas se destacam pela gravidade, sendo:

  • Injeção indireta de prompt por sites confiáveis: a ferramenta lê comandos escondidos em páginas legítimas e passa a executá-los;
  • Ataques “0-clique” e “1-clique”: o comprometimento acontece sem interação direta ou com apenas um clique em um link malicioso;
  • Injeção de memória persistente: códigos maliciosos podem ser armazenados na memória de longo prazo da Inteligência Artificial (IA), permanecendo ativos mesmo após o encerramento da sessão, o que possibilita vazamentos contínuos de informações em futuras conversas;
  • Omissão de segurança e ocultação de conteúdo: erros de validação e formatação possibilitam mascarar comandos maliciosos, enganando o modelo e os usuários.

(Victoria Rodrigues, estagiária de Jornalismo, sob supervisão de Felipe Saraiva, editor web em Oliberal.com)

Assine O Liberal e confira mais conteúdos e colunistas. 🗞
Entre no nosso grupo de notícias no WhatsApp e Telegram 📱
Variedades
.
Ícone cancelar

Desculpe pela interrupção. Detectamos que você possui um bloqueador de anúncios ativo!

Oferecemos notícia e informação de graça, mas produzir conteúdo de qualidade não é.

Os anúncios são uma forma de garantir a receita do portal e o pagamento dos profissionais envolvidos.

Por favor, desative ou remova o bloqueador de anúncios do seu navegador para continuar sua navegação sem interrupções. Obrigado!