Com o advento e a popularização da Inteligência Artificial (IA) e acesso livre a plataformas como o ChatGPT a circulação de perfis e sites falsos ficou cada vez maior, mais profissional e difícil de distinguir. Se aproveitando disso, criminosos aperfeiçoaram a aplicação de golpes, que agora utilizam mecanismos de falsificação de imagens, vozes e até mesmo a replicação de conteúdos em massa em tempo recorde.
De acordo com informações da Folha de S. Paulo, em 2023 houve a maior circulação de conteúdos falsos destinados a golpes e fraudes de todos os tempos. Somente no ano passado foram quase 5 milhões de casos. Em 2022 foram 4,7 milhões. Conforme o Anuário Brasileiro de Segurança Pública, divulgado este ano, entre 2018 e 2023, aumento nos casos de fraude eletrônica foi de 326,2%. Com o auxílio da IA, alguns tipos de golpes têm se tornado populares: clones virtuais, ligação falsa, sites falsos e fakes do Tinder
Tem crescido no país a quantidade de sites falsos que imitam os sites originais, com imagens e layouts parecidos, onde os consumidores são convencidos de estar adquirindo o produto, mas, na verdade, caem em um golpe. Segundo a Folha de S.Paulo, atualmente, há um novo mecanismos para criação de sites falsos, uma plataforma chamada Vercel, que recria sites simples a partir de inteligência artificial.
Para identificar o site fake, basta observar o endereço do site, que costuma ter o trecho “vercel.app”. Uma das dicas que indicam que o site não é confiável é, justamente, a extensão incomum. Sites com extensão (final do endereço), com os trechos .org, .net e .com, que são os mais comuns, podem ser comprados por qualquer pessoa e não exigem nenhum tipo de verificação. O ideal é checar se há o cadeado no início do endereço antes de fechar compras ou digitar dados pessoais.
Outro detalhe que é importante ficar atento, é evitar clicar em links diretos por email ou que chegam pelas redes sociais, e preferir pesquisar pelo nome da empresa antes. O endereço web que começa com o trecho “https://” é indicativo de conexão segura.
Um novo mecanismo chamado de deepfake cria imagens e vídeos falsos com base em fotos de pessoas reais. Com uso da inteligência artificial, troca rostos e corpos, sincroniza movimentos labiais e insere fundos em vídeos e imagens.
O recurso é muito utilizado para criar fotos íntimas falsas e assim, extorquir os usuários na internet, ou até mesmo, usar das imagens e vídeos produzidos com IA para se passar por pessoas conhecidas e aplicar golpes em familiares e amigos.
O mesmo recurso usado para produzir as imagens falsas também é utilizado para clonar vozes das pessoas reais e assim conseguir aplicar golpes de ligação. O famoso golpe da ligação que se fazia passar por um parente que havia sido “sequestrado” ou que pede dinheiro emprestado foi aprimorado e, agora, está mais difícil de ser distinguido. A dica dos especialistas é se atentar a hábitos e o jeito com que a pessoa se comunica na vida real, para assim, notar diferenças sutis no jeito de falar, na entonação da voz e na conduta do golpista.
A criação de imagens e vozes falsas por meio da inteligência artificial também facilitou golpes já conhecidos e até comuns, como o perfil falso em aplicativos de namoro. Os criminosos usam da criação de imagens realistas para estabelecer contato com usuários dos apps e conseguir extorquir dinheiro a longo prazo ou até mesmo atraí-los para encontros que resultam em sequestros relâmpagos.
Para burlar a artimanha dos golpistas, os apps de relacionamento Tinder e Bumble já possuem, por exemplo, uma autenticação do perfil, em que o usuário envia uma foto no momento e a central reconhece que se trata de uma pessoa real e concede o selo de verificação. A dica é só manter contato com pessoas que possuem o selo e garantir a segurança.