Em nove meses, crimes com IA sobem 185% no Pará
De janeiro a setembro de 2024, a Secretaria de Segurança Pública e Defesa Social (Segup) contabilizou 41 casos dessa natureza, enquanto em 2025, no mesmo período, foram 117
O número de crimes que utilizaram Inteligência Artificial subiu 185% no Pará. De janeiro a setembro de 2024, a Secretaria de Segurança Pública e Defesa Social (Segup) contabilizou 41 casos dessa natureza, enquanto em 2025, no mesmo período, foram 117. Já em 2023, a Segup notificou 9 ocorrências durante a mesma época. Dentre os principais crimes relacionados estão: estelionato, falsa identidade, fraude eletrônica e apropriação indébita. Entre as práticas criminosas que vêm crescendo com essa tecnologia e tornam as infrações mais sofisticadas, estão o golpe do falso advogado e a clonagem de voz por ligação. Para isso, especialistas alertam para a adoção de medidas de segurança, como, por exemplo, ter atenção ao número da chamada ou ativar a opção nas configurações do celular de rejeitar ligações de números desconhecidos.
Em 1950, o cientista britânico e matemático Alan Turing propôs o "Teste de Turing", dando início aos estudos de máquinas inteligentes. Seis anos depois, na Conferência de Dartmouth, John McCarthy mencionou o termo pela primeira vez: Inteligência Artificial. Essa tecnologia explodiu a partir de 2022, com o lançamento de modelos de IA generativa como o ChatGPT.
Jacyara Sarges, delegada da Divisão de Combate a Crimes Contra Direitos Individuais por Meios Cibernéticos, da Polícia Civil do Pará, conta que o uso da IA nos crimes digitais não é algo que começou recentemente. Porém existem alguns delitos, como as “ligações mudas”, também conhecidas como golpe do silêncio, e que consistem em clonar a voz de quem atende o telefonema, que estão crescendo nas regiões Sul e Sudeste do Brasil.
“São aquelas chamadas em que a pessoa tenta falar, mas ninguém responde. O objetivo por trás desse golpe seria que a pessoa fique falando para gravar a voz dela e utilizá-la em outros golpes. Com a clonagem de voz, o criminoso pode se passar por um parente e pedir dinheiro, ou até por um gerente de banco solicitando valores ou acessos a um cliente”, explica. Sarges comenta que ainda não há “registros expressivos” do golpe do silêncio no estado. Contudo, ela acredita que essa prática possa “começar a se instalar no Pará” em breve.
Outros tipos de crimes com a IA que já foram registrados na Polícia Civil do Pará são as deepfakes, uma técnica de manipulação digital que cria vídeos, áudios e imagens falsos e coloca uma pessoa em um tipo de situação em que nunca esteve. Também existe o golpe do falso advogado, em que os criminosos clonam as vozes das vítimas e entram em contato com pessoas que possuem processos judiciais em andamento e se apresentam como advogados, exigindo transferências via Pix. Em sete meses, a Ordem dos Advogados do Brasil - Seção Pará (OAB-PA) recebeu mais de 220 denúncias sobre a fraude.
Além desses crimes, existe o phishing personalizado, em que a IA ajuda a melhorar a redação de e-mails e mensagens, criando conversas mais coerentes e persuasivas para obter informações confidenciais, sem os "sinais de golpe" tradicionais, como erros ortográficos, e com a presença de imagens realistas produzidas com IA. Outro crime praticado com IA é a utilização em larga escala de bots automatizados para ataques de phishing e para disseminação de desinformação, e inclusive pode ser usada para desenvolver scripts maliciosos, automatizar ataques, descobrir vulnerabilidades em softwares e sistemas e contornar medidas de segurança.
Para a delegada, a Inteligência Artificial é um ponto positivo que chegou para somar nas atividades humanas, só que a população precisa estar vigilante a essa tecnologia que torna um golpe mais convincente. “O primeiro cuidado a se ter é não falar ou não provocar conversas nessas chamadas mudas. Se você atendeu à ligação, aguarde para ver se alguém vai falar. Se não houver nenhum tipo de contato e a ligação for de um número que você não conhece, desligue. A maioria dos aparelhos de hoje em dia tem configurações de spam; se você puder, ative esse mecanismo que rejeita ligações de números não identificados”, orienta.
“Crie o hábito de sempre verificar se o número que está ligando, e diz ser de alguém que você conheça, é o mesmo que você tem salvo na agenda. Outra dica importante é fazer chamadas de vídeo com aquela pessoa. Fique atento para não confirmar dados pessoais, não clicar em links e observe que o que o golpista tem é o quesito pressa; para ele, é tudo muito urgente”, continua.
Caso uma pessoa tenha a voz clonada, a delegada Jacyara reforça que certos celulares possuem a opção que possibilita à vítima a denúncia do número que se passa por ela. Além disso, também é possível fazer um registro na Agência Nacional de Telecomunicações (Anatel) do número suspeito de ser utilizado para aplicação de golpes e um boletim de ocorrência online ou em qualquer delegacia para que o caso seja apurado devidamente.
Vazios na legislação
Para o presidente da Comissão de Gestão, Empreendedorismo e Inovação da OAB-PA, Rafael Tupinambá, o Código Penal brasileiro, apesar de cuidar da maioria dos crimes informáticos, apresenta lacunas significativas quando se trata de crimes facilitados ou cometidos com o uso de IA.
“A legislação atual não contempla uma regulação específica para crimes cometidos por IA, dificultando a imputação da culpabilidade e a tipificação adequada. O Brasil tem avançado em legislações sobre crimes digitais, como a Lei nº 12.737/2012 (Lei Carolina Dieckmann) e a Lei nº 14.155/2021, que agravou penas para crimes de furto, estelionato e invasão quando cometidos eletronicamente. No entanto, a aplicação dessas leis a condutas mediadas pela IA desafia os modelos tradicionais de responsabilidade penal. A ausência de normas específicas sobre IA deixa lacunas importantes e gera insegurança jurídica, uma vez que não há previsão legal clara para responsabilizar o autor do ato ilícito em muitos casos”, afirma.
Por isso, ele acredita que a regulamentação da IA no Brasil deve ser urgente. “Há um consenso global sobre a necessidade de regular a IA para garantir o uso seguro, ético e lícito da tecnologia. Diversos especialistas e órgãos governamentais têm manifestado essa urgência: o governo federal deseja que o Marco Regulatório de Inteligência Artificial esteja pronto para sanção presidencial na reunião de Cúpula do G20, em novembro deste ano”, destaca.
Ele lembra que o Projeto de Lei que regula o uso da IA, 2338/2023, já foi aprovado em comissão e enviado para votação em Plenário em regime de urgência, refletindo a pressão para se estabelecer regras vinculantes. “A ausência de normas específicas sobre IA gera insegurança jurídica e a sensação de impunidade. Embora o país já possua leis como a LGPD, o Código de Defesa do Consumidor e o Marco Civil da Internet, que podem ser aplicadas em alguns cenários, a natureza autônoma e adaptativa da IA e os novos desafios que ela impõe exigem uma legislação mais específica e abrangente. A regulamentação busca equilibrar a proteção da sociedade e o incentivo à inovação tecnológica, garantindo segurança sem frear o desenvolvimento”, explica.
Dilemas na responsabilização
Rafael esclarece que a responsabilização em casos de crimes cometidos com IA é um dos maiores desafios jurídicos, isso porque não há consenso na doutrina penal. “Atualmente, a IA em si não pode ser responsabilizada penalmente, pois não é sujeito de direito e não possui vontade; é considerada apenas um instrumento. A responsabilidade penal recai sobre pessoas físicas ou jurídicas que detiverem domínio ou previsibilidade sobre a conduta lesiva mediada pela IA”, detalha.
Segundo ele, a Teoria do Domínio do Fato, que define autoria com base no controle sobre a execução de um crime, levanta a questão de quem detém o controle em crimes mediados por algoritmos de IA: o programador que criou o sistema, a empresa que o implantou, o usuário que operou ou ninguém em específico.
Caso a IA seja utilizada como um mero instrumento, o advogado informa que a responsabilidade penal recairá sobre o usuário ou operador que, deliberadamente, empregou o sistema para cometer o crime. No PL 2.338/2023, ele conta que propõe-se que a responsabilidade por danos civis ou penais decorrentes da utilização de sistemas de IA de Baixo Risco seja imputada exclusivamente ao operador ou usuário que empregou deliberadamente o referido sistema”, pontua.
Se, por ventura, a responsabilidade for do desenvolvedor, ou seja, quando há falhas de projeto, omissões ou vícios no algoritmo que permitam a prática criminosa, Rafael explica que o PL 2.338/2023 prevê que a responsabilização por danos de sistemas de IA classificados como de Médio Risco recaia sobre o desenvolvedor do sistema, “quando tais danos forem resultado de decisões autônomas tomadas pelo sistema”. No entanto, ele argumenta que a complexidade de grandes equipes de especialistas envolvidas no desenvolvimento de IAs torna difícil individualizar a conduta de uma pessoa específica.
E, se a responsabilização for do usuário e também do desenvolvedor, a obrigação legal de responder pela ação pode ser compartilhada ou distribuída, dependendo do grau de participação, intenção e previsibilidade de cada agente envolvido, conforme aponta o advogado.
Riscos
Entre os riscos à privacidade e à segurança da informação, que também incluem as deepfakes, phishing, engenharia social avançada e desinformação, Rafael Tupinambá examina o risco de violações de dados ou acesso não autorizado, o que pode comprometer a privacidade e a confidencialidade. Isso porque, de acordo com ele, os sistemas de IA geralmente exigem acesso a grandes quantidades de dados, incluindo informações pessoais e confidenciais.
“Usuários, especialmente em ambientes corporativos, podem inadvertidamente inserir informações sensíveis em plataformas públicas de IA, que retêm esses dados para treinamento, podendo expô-los a outros usuários ou influenciar respostas futuras. Se os dados de treinamento contiverem vieses, os sistemas de IA podem perpetuar e ampliar esses preconceitos, levando a um tratamento ou tomada de decisões injustas e com impacto na privacidade”, diz.
Como se proteger
O advogado alega que é importante desconfiar de conteúdos que parecem "bons demais para ser verdade" ou de situações inesperadas, mesmo que pareçam vir de pessoas conhecidas. Ele reforça a necessidade de identificar a história por trás do conteúdo, páginas linkadas e informações pessoais.
Caso o conteúdo audiovisual seja duvidoso, Tupinambá aconselha que dê zoom na imagem ou vídeo para identificar distorções, falta de sincronia labial, movimentos faciais não naturais ou anomalias nas imagens geradas por IA. “Se a comunicação for por áudio, questione o interlocutor com perguntas pessoais que apenas a pessoa real saberia responder. Um pequeno atraso na resposta ou a recusa em responder podem ser indícios de fraude”, comenta.
Em caso de dúvida sobre um pedido financeiro ou informação sensível, ele conta que é preciso contatar a pessoa ou instituição por um canal de comunicação diferente e já estabelecido, como o número de telefone conhecido, em vez de responder à mensagem suspeita.
Nas redes sociais, o cuidado precisa ser levado em consideração. “Limite a quantidade de informações pessoais, fotos e vídeos de alta qualidade que você compartilha publicamente online, pois esses dados podem ser usados para criar deepfakes. Restrinja envios, comentários ou solicitações para seguir perfis desconhecidos”, observa. Utilize senhas únicas e complexas para cada serviço e ative a autenticação de dois fatores (MFA) sempre que possível. Mantenha seus dispositivos e softwares atualizados com os patches e atualizações de segurança mais recentes, pois softwares desatualizados podem ter vulnerabilidades que hackers podem explorar”, completa.
Crimes com IA registrados de janeiro a setembro no Pará
- 2023: 9 casos
- 2024: 41 casos
- 2025: 117 casos
Fonte: Segup.
Dicas de segurança
- Desconfie de conteúdos que parecem ser “bons demais para ser verdade” ou de situações inesperadas;
- Identifique a história por trás do conteúdo, páginas linkadas e informações pessoais;
- Em caso de achar uma imagem ou vídeo suspeito, dê zoom para identificar distorções, falta de sincronia labial, movimentos faciais não naturais ou anomalias nas imagens geradas por IA;
- Se desconfiar de um áudio, questione o interlocutor com perguntas pessoais que apenas a pessoa real saberia responder;
- Se tiver dúvida sobre um pedido financeiro ou informação sensível, contate a pessoa ou instituição por um canal de comunicação diferente e já estabelecido;
- Limite a quantidade de informações pessoais, fotos e vídeos de alta qualidade que você compartilha publicamente online. Esses dados podem ser usados para criar deepfakes;
- Utilize senhas únicas e complexas para cada serviço e ative a autenticação de dois fatores sempre que possível;
- Mantenha seus dispositivos e softwares atualizados com os patches e atualizações de segurança mais recentes;
- Quando for usar ferramentas com IA, pense cuidadosamente sobre o que você está compartilhando, por conta dos dados inseridos poderem ser usados para treinamento e, inadvertidamente, expostos a outros.
Palavras-chave
COMPARTILHE ESSA NOTÍCIA