Anúncios de fraudes com jogos de azar prometendo resultados financeiros exorbitantes de maneira rápida ou produtos e medicamentos com resultados milagrosos se multiplicam pelas redes sociais usando vídeos com imagens e vozes de famosos. O pior, muitas pessoas caem nos golpes.
De acordo com matéria publicada no O Globo, recentemente, vídeos impulsionados nas redes sociais mostram figuras conhecidas como Roberto Carlos, Solimões, Ronaldo e Drauzio Varella em situações falsamente comprometedoras.
Por exemplo, na Meta, dona do Instagram, WhatsApp e Facebook, o jogo de azar Subway Money, tem pelo menos 130 resultados de postagens pagas duvidosas usando imagens de celebridades desde dezembro de 2023, contribuindo para a receita da empresa, segundo O Globo. Não apenas na Meta, mas também no TikTok e X/Twitter, vídeos semelhantes circulam.
A popularização das ferramentas de IA generativa com essas simulações realistas, conhecidas como deepfakes, tem estimulado esse fenômeno e levado personalidades a buscarem medidas legais para protegerem sua imagem e reputação, como por exemplo, Drauzio Varella e o podcaster Igor Rodrigues Coelho, do Flow Podcast.
A queixa recorrente é a permissão das empresas de tecnologia de manterem esses anúncios e também a demora das plataformas em identificar e remover conteúdo produzido por IA.
Algoritmos disseminam anúncios na rede
Esses anúncios costumam ser curtos, com mensagens apelativas e cheias de promessas. Ao driblar os sistemas de segurança das redes sociais, esses anúncios se tornam ainda mais poderosos.
Isso ocorre porque as plataformas de publicidade utilizam algoritmos que segmentam o público com base em dados pessoais e de navegação, maximizando as chances de engajamento.
Para o jornal O Globo, Fernando Ferreira, doutor em inteligência computacional e pesquisador do NetLab da UFRJ, explicou que essa segmentação é muito útil para empresas legítimas encontrarem seu público-alvo, mas facilita a ação de golpistas.
Esses fraudadores muitas vezes usam contas e sites temporários para evitar o rastreamento, vendendo cursos e materiais falsos ou divulgando sites de e-commerce fraudulentos, sendo disseminada também em grupos de aplicativos de mensagens.
A dificuldade jurídica é que segundo o Marco Civil da Internet, essas plataformas não são diretamente responsáveis por conteúdos de terceiros, incluindo deepfakes. O artigo 19 estabelece que os provedores só podem ser responsabilizados civilmente mediante ordem judicial clara e específica para a remoção ou bloqueio de conteúdo ilegal em prazo determinado, sob pena de multas ou indenizações.
Por outro lado, a gravidade dessa questão é destacada pelo Código Penal, que desde 2021 considera mais séria a pena de estelionato quando praticado em ambiente digital.
LEIA TAMBÉM
Brasil investe em novo sistema de alertas de desastres climáticos
TikTok lança curso gratuito de marketing digital para empreendedores
Desafios na detecção de deepfakes
Especialistas destacaram na reportagem que há desafios científicos em desenvolver métodos universais e eficientes de detecção automática de todos os tipos de conteúdo gerados por IA. A velocidade de avanço tecnológico é uma importante preocupação uma vez que ferramentas atuais usadas por criminosos já são capazes de burlar sistemas, apesar de não produzirem resultados perfeitos.
Enquanto isso, plataformas de redes sociais têm implementado políticas para lidar com o problema, como a exigência de rotulagem de conteúdo sintético pelo TikTok e a determinação da Meta para que anunciantes divulguem quando um conteúdo realista foi criado ou alterado por IA.