Vazaram nudes de Taylor Swift? Entenda o caso e saiba a verdade sobre imagens geradas por IA

Ferramenta de Elon Musk, Grok Imagine, foi usada para criar imagens falsas da cantora; recurso "modo picante" permite deepfakes explícitos de celebridades

Hannah Franco
fonte

Nos últimos dias, o nome de Taylor Swift voltou a ser associado a mais uma polêmica envolvendo o uso indevido de inteligência artificial (IA). Circula nas redes a informação de que nudes da cantora teriam vazado, mas a verdade é que as imagens são falsas e foram geradas por uma ferramenta de IA vinculada a Elon Musk.

Segundo reportagem publicada pelo site norte-americano The Verge, o conteúdo foi criado usando o Grok Imagine, novo gerador de imagens integrado à IA Grok, disponível para assinantes da versão paga da rede social X (antigo Twitter). A plataforma permite gerar imagens e vídeos com base em descrições textuais, e conta com quatro modos distintos: Custom, Normal, Fun e Spicy (este último, em tradução livre, significa "picante").

VEJA MAIS

image Restos mortais são encontrados perto da mansão de Taylor Swift
Parte de um corpo humano foi encontrado perto de uma das propriedades da cantora

image Taylor Swift é intimada a depor em caso de Blake Lively e Justin Baldoni
O envolvimento de Swift com o caso começou em janeiro deste ano

Como as imagens foram criadas?

A repórter do The Verge teria testado a ferramenta pedindo que o Grok Imagine criasse imagens com o seguinte comando: "Taylor Swift festejando no Coachella com os meninos". A IA gerou mais de 30 imagens, algumas em que a cantora aparecia em poses sugestivas e com roupas mínimas. Ao selecionar uma dessas imagens e ativar o modo Spicy, a ferramenta produziu um vídeo em que a artista simulava tirar a roupa e dançar de calcinha diante de uma multidão também gerada por IA.

Segundo o The Verge, embora o Grok não permita que o usuário peça diretamente por nudes no prompt, o modo Spicy consegue contornar essas limitações e criar conteúdos com nudismo explícito de figuras públicas — o que levanta sérias preocupações sobre o uso da IA para criação de deepfakes não-consensuais.

Repercussão e polêmica

Essa não é a primeira vez que o nome de Taylor Swift aparece ligado a casos de nudes falsos gerados por IA. Em 2024, a cantora foi vítima de uma onda de deepfakes eróticos, que circularam em redes sociais e causaram revolta entre fãs e especialistas em segurança digital.

O novo recurso do Grok já foi usado para criar mais de 34 milhões de imagens entre os dias 4 e 5 de agosto, segundo informações divulgadas por Elon Musk. Ainda assim, a funcionalidade vem sendo duramente criticada por especialistas, já que o sistema tem sido capaz de produzir conteúdo adulto com rostos de celebridades, além de já ter sido associado à veiculação de mensagens antissemitas e outros conteúdos considerados ofensivos.

O que diz a legislação?

Embora o uso da IA para criar imagens falsas de pessoas famosas ainda esteja em zona cinzenta em muitos países, a prática já é considerada crime em diversas jurisdições, principalmente quando se trata de conteúdo sexual.

A criação e a disseminação de deepfakes pornográficos sem o consentimento da pessoa retratada pode configurar crime de violação de direitos de imagem, difamação e violência virtual.

Assine O Liberal e confira mais conteúdos e colunistas. 🗞
Entre no nosso grupo de notícias no WhatsApp e Telegram 📱
Cultura
.
Ícone cancelar

Desculpe pela interrupção. Detectamos que você possui um bloqueador de anúncios ativo!

Oferecemos notícia e informação de graça, mas produzir conteúdo de qualidade não é.

Os anúncios são uma forma de garantir a receita do portal e o pagamento dos profissionais envolvidos.

Por favor, desative ou remova o bloqueador de anúncios do seu navegador para continuar sua navegação sem interrupções. Obrigado!

ÚLTIMAS EM CULTURA

MAIS LIDAS EM CULTURA