Vazaram nudes de Taylor Swift? Entenda o caso e saiba a verdade sobre imagens geradas por IA
Ferramenta de Elon Musk, Grok Imagine, foi usada para criar imagens falsas da cantora; recurso "modo picante" permite deepfakes explícitos de celebridades
Nos últimos dias, o nome de Taylor Swift voltou a ser associado a mais uma polêmica envolvendo o uso indevido de inteligência artificial (IA). Circula nas redes a informação de que nudes da cantora teriam vazado, mas a verdade é que as imagens são falsas e foram geradas por uma ferramenta de IA vinculada a Elon Musk.
Segundo reportagem publicada pelo site norte-americano The Verge, o conteúdo foi criado usando o Grok Imagine, novo gerador de imagens integrado à IA Grok, disponível para assinantes da versão paga da rede social X (antigo Twitter). A plataforma permite gerar imagens e vídeos com base em descrições textuais, e conta com quatro modos distintos: Custom, Normal, Fun e Spicy (este último, em tradução livre, significa "picante").
VEJA MAIS
Como as imagens foram criadas?
A repórter do The Verge teria testado a ferramenta pedindo que o Grok Imagine criasse imagens com o seguinte comando: "Taylor Swift festejando no Coachella com os meninos". A IA gerou mais de 30 imagens, algumas em que a cantora aparecia em poses sugestivas e com roupas mínimas. Ao selecionar uma dessas imagens e ativar o modo Spicy, a ferramenta produziu um vídeo em que a artista simulava tirar a roupa e dançar de calcinha diante de uma multidão também gerada por IA.
Segundo o The Verge, embora o Grok não permita que o usuário peça diretamente por nudes no prompt, o modo Spicy consegue contornar essas limitações e criar conteúdos com nudismo explícito de figuras públicas — o que levanta sérias preocupações sobre o uso da IA para criação de deepfakes não-consensuais.
Repercussão e polêmica
Essa não é a primeira vez que o nome de Taylor Swift aparece ligado a casos de nudes falsos gerados por IA. Em 2024, a cantora foi vítima de uma onda de deepfakes eróticos, que circularam em redes sociais e causaram revolta entre fãs e especialistas em segurança digital.
O novo recurso do Grok já foi usado para criar mais de 34 milhões de imagens entre os dias 4 e 5 de agosto, segundo informações divulgadas por Elon Musk. Ainda assim, a funcionalidade vem sendo duramente criticada por especialistas, já que o sistema tem sido capaz de produzir conteúdo adulto com rostos de celebridades, além de já ter sido associado à veiculação de mensagens antissemitas e outros conteúdos considerados ofensivos.
O que diz a legislação?
Embora o uso da IA para criar imagens falsas de pessoas famosas ainda esteja em zona cinzenta em muitos países, a prática já é considerada crime em diversas jurisdições, principalmente quando se trata de conteúdo sexual.
A criação e a disseminação de deepfakes pornográficos sem o consentimento da pessoa retratada pode configurar crime de violação de direitos de imagem, difamação e violência virtual.
Palavras-chave