Modelos de inteligência artificial capazes de imitar rostos e vozes com alto grau de realismo vêm colocando em xeque o direito das pessoas sobre a própria imagem. Políticas de privacidade de gigantes como Meta, Google e OpenAI permitem que fotos e áudios enviados pelos usuários sejam utilizados para treinar algoritmos, abrindo caminho para a criação de “clones” digitais em poucos segundos de gravação.
Testes mostram facilidade para criar avatares realistas
A repórter Nicole Nguyen, do The Wall Street Journal, usou o aplicativo Sora, da OpenAI, para gerar vídeos com um avatar seu. Bastaram alguns segundos diante da câmera para que a plataforma produzisse cenas em que a jornalista aparecia discursando no Oscar ou protagonizando uma perseguição cinematográfica. Apesar de pequenas imperfeições nos dentes e em algumas expressões, o resultado foi convincente o bastante para enganar amigos e familiares.
Casos recentes revelam alcance dos deepfakes
Em 2023, uma imagem falsa do papa Francisco usando um casaco de luxo viralizou nas redes. Desde então, as manipulações avançaram de fotos estáticas para vídeos completos. Com o lançamento do Sora 2, feeds do Instagram passaram a exibir montagens realistas com Michael Jackson, Albert Einstein, Martin Luther King e Taylor Swift, entre outros.
Nem todas as falsificações são inofensivas. A meteorologista norte-americana Bree Smith teve o rosto inserido em vídeos íntimos em 2024; o material foi vendido on-line sem consentimento. A repercussão ajudou a aprovar, no Tennessee, uma lei que criminaliza a divulgação de deepfakes sexuais.
Mercado de remoção de conteúdo cresce
Com a legislação avançando em ritmo mais lento que a tecnologia, surgiram serviços pagos para monitorar e derrubar material falso. A empresa Vermillio cobra entre US$ 10 e US$ 99 por mês (cerca de R$ 52 a R$ 520) conforme o número de solicitações, enquanto a Loti pode chegar a US$ 2.500 mensais (aproximadamente R$ 14 mil) para figuras públicas.
Imagem: Tero Vesalainen
Especialistas veem uso indevido como inevitável
Ferramentas populares como Sora (OpenAI), Vibes (Meta) e Veo (Google) geram vídeos inteiros com pessoas inexistentes. Mesmo com filtros e bloqueios, pesquisadores afirmam que a circulação de deepfakes é questão de tempo. Celebridades e usuários comuns já enfrentam impactos que variam do constrangimento público à perda de credibilidade profissional.
A proliferação de tendências nas redes sociais — desde filtros de casal até ajustes “profissionais” em imagens — aumenta a quantidade de dados disponíveis para os modelos. Cada postagem amplia o banco de referências usado pelos algoritmos, dificultando o controle individual sobre voz, rosto e corpo em ambiente digital.
Com informações de WizyThec

