Notícias

Deepfakes: vídeos falsos por IA impulsionam golpes e pornografia ilegal

Segundo especialista, o ordenamento jurídico brasileiro prevê punições, mas ainda é insuficiente diante do veloz avanço tecnológico

Por Redação / 11 de fevereiro de 2026

Deepfake. Foto: Freepik

A inteligência artificial está prestes a mudar radicalmente a forma como vídeos e imagens são produzidos. E o impacto pode ser bem mais negativo do que parece. Projeções da empresa de cibersegurança DeepStrike, citadas em análises internacionais sobre o avanço dos deepfakes, indicam que o volume de vídeos e imagens falsas geradas por IA saltou de cerca de 500 mil em 2023 para aproximadamente 8 milhões em 2025. A expectativa é de crescimento ainda mais acelerado em 2026, incluindo conteúdos capazes de interagir com pessoas em tempo real.

Esse avanço tecnológico vem sendo cada vez mais explorado para fraudes financeiras sofisticadas, manipulação política, chantagens e também para a criação de deepfakes sexuais (imagens e vídeos falsos de cunho íntimo produzidos a partir de fotos reais, sem o consentimento das vítimas).

Para o advogado Carlos Eduardo Holz, especialista em Direito Digital, o problema vai além da tecnologia. “As leis existem, mas ainda não acompanham a realidade”, afirma.

Segundo ele, embora haja legislação aplicável, grande parte das normas foi concebida antes da popularização dessas ferramentas e não contempla plenamente a complexidade dos deepfakes atuais. “Estamos diante de uma tecnologia que possibilita fraudes, chantagens e, de forma extremamente preocupante, a criação de conteúdo sexual envolvendo pessoas reais sem seu consentimento. Isso fere direitos fundamentais e exige respostas legais mais robustas”, diz.

Deepfakes sexuais

Entre os usos mais graves da inteligência artificial está a produção de deepfakes sexuais. Em outubro de 2025, o pesquisador de cibersegurança Jeremiah Fowler identificou a exposição de mais de 1 milhão de deepfakes pornográficos, incluindo conteúdos envolvendo adultos e crianças, armazenados de forma insegura na rede internacional MagicEdit. O episódio evidenciou não apenas a produção em massa, mas também a circulação descontrolada desse tipo de material.

No Brasil, os reflexos já aparecem nos dados oficiais. Informações da SaferNet Brasil, organização que recebe e encaminha denúncias de crimes e violações de direitos humanos na internet, indicam que quase 50 mil denúncias de abuso infantil online foram registradas em um único ano, muitas delas associadas ao uso de inteligência artificial para manipulação de imagens.

Para Holz, embora ferramentas de IA possuam regras contra conteúdos enganosos ou fraudulentos — especialmente quando envolvem figuras públicas —, a prática revela falhas importantes. O fato de esse material continuar sendo produzido e amplamente compartilhado expõe vulnerabilidades estruturais das plataformas digitais.

Clonagem de voz e imagem disparam

Além do uso sexual, os deepfakes também se tornaram uma arma poderosa em golpes eletrônicos. Pesquisa divulgada pela empresa internacional de verificação de identidade Sumsub aponta que as fraudes envolvendo deepfake cresceram 822% no Brasil em apenas um ano, colocando o país entre os mais afetados por esse tipo de crime.

Entre os golpes mais comuns estão:

  • clonagem de voz para autorizar transferências bancárias;

  • vídeos falsos de executivos, autoridades ou familiares;

  • uso de imagens manipuladas para extorsão e chantagem.

Segundo o especialista, um dos motores dessa disseminação é o próprio funcionamento das redes sociais. “Hoje, infelizmente, o algoritmo impulsiona aquilo que está em alta. Qualquer reação, mesmo de crítica ou dúvida, acaba alimentando o sistema”, explica.

O que diz a lei

O ordenamento jurídico brasileiro já conta com instrumentos para responsabilizar autores e facilitadores de deepfakes, mas eles ainda são considerados insuficientes diante da velocidade da evolução tecnológica. Entre os principais dispositivos estão:

  • Código Penal Brasileiro (artigos 147-B e 216-B): prevê agravantes para manipulação e divulgação de imagens de cunho sexual sem consentimento, com possibilidade de pena de prisão e multa;

  • Código Civil (art. 186): estabelece a obrigação de indenizar quem causa dano a terceiros por ação ou omissão, aplicável a prejuízos morais ou econômicos;

  • Marco Civil da Internet (Lei nº 12.965/2014): prevê responsabilização de plataformas quando há omissão diante de conteúdo ilícito, especialmente após notificação.

Para Holz, o descompasso entre norma e realidade é evidente. “Temos leis antigas diante de tecnologias novas. A legislação precisa se adaptar continuamente à realidade da sociedade”, afirma.

No Congresso Nacional, tramita o Projeto de Lei nº 2.338/2023, que propõe regras para o desenvolvimento e o uso ético da inteligência artificial, incluindo deveres de transparência e mitigação de riscos.

Plataformas na mira da Justiça

O papel das big techs entrou de vez no centro do debate após decisões recentes do Supremo Tribunal Federal. No julgamento do Tema 987, em junho de 2025, a Corte reconheceu que plataformas digitais podem ser responsabilizadas quando se mantêm omissas diante da circulação de conteúdos ilícitos, inclusive deepfakes.

“Quando uma imagem ou vídeo falso ganha grandes proporções e a plataforma se mantém omissa, há responsabilidade”, afirma Holz. Ele também critica o atendimento oferecido às vítimas. “A própria vítima denuncia, e o conteúdo permanece ativo. O retorno costuma ser automatizado, sem suporte humanizado. Isso é uma falha gravíssima.”

Como se proteger

Para o especialista, a principal barreira contra os deepfakes ainda é comportamental. “Fomos inseridos nas tecnologias, mas não fomos educados para o ambiente digital. Vivemos um verdadeiro analfabetismo digital”, alerta.

Entre as recomendações estão:

  • verificar a origem do conteúdo e buscar confirmação em mais de uma fonte confiável;

  • utilizar serviços de checagem de fatos;

  • desconfiar de conteúdos sensacionalistas ou emocionalmente provocativos;

  • redobrar o cuidado com materiais políticos ou íntimos;

  • denunciar conteúdos enganosos e, se necessário, buscar orientação jurídica especializada.

“Respire, conte até 10 e repense: eu compartilho isso ou não?”, recomenda Holz. Para criadores de conteúdo, o alerta é direto: “Quem cria ou compartilha conteúdo falso pode perder a conta e até sua fonte de renda”.

Notícias Relacionadas

Notícias

STJ vai definir se OAB pode cobrar anuidade de sociedades de advogados

Julgamento ocorrerá sob o rito dos recursos repetitivos

Notícias

STJ registra crescimento de 5% no número de processos recebidos

Até maio, foram nove mil processos a mais em comparação com o mesmo período de 2023