O lançamento do Sora 2, anunciado em 30 de setembro de 2025 pela OpenAI, intensificou o debate sobre a confiabilidade das imagens que circulam na internet. A nova versão do gerador de vídeos por inteligência artificial promete precisão física aprimorada, diálogos sincronizados, efeitos sonoros integrados e até recursos de ambientação que tornam cada cena ainda mais crível.
Desde a primeira edição do aplicativo, disponível gratuitamente na App Store da Apple e rapidamente alçado às listas de mais baixados, usuários conseguem criar vídeos complexos apenas descrevendo uma situação em texto. A atualização leva a tecnologia a um patamar comparado pela OpenAI ao salto do GPT-1 para o GPT-3.5.
Recursos avançados
Além de melhorias no motor de geração, o Sora 2 vem acompanhado de um app móvel que permite remixar clipes e inserir a própria imagem e voz do usuário em cenas virtuais por meio da função “participações especiais”. O pacote também inclui algoritmos de recomendação em linguagem natural, controles de feed e ferramentas de monitoramento de bem-estar — com atenção redobrada ao público adolescente.
Uso legítimo e desinformação
O potencial de entretenimento avança ao lado de usos nocivos. Testes mostraram que o software pode criar falsas imagens de acidentes de trânsito para fraudes de seguro, vídeos com alegações médicas enganosas e até reportagens fabricadas destinadas a difamar pessoas. A facilidade levou especialistas a declarar o “fim do fato visual” — a noção de que um vídeo, por si só, prova a ocorrência de um evento.
Ren Ng, professor de ciência da computação na Universidade da Califórnia em Berkeley, observa que o cérebro humano “foi programado para acreditar no que vê”, mas agora precisa desconfiar da autenticidade de qualquer conteúdo. Lucas Hansen, fundador da organização sem fins lucrativos CivAI, vai além: “Ninguém estará mais disposto a aceitar vídeos como prova de nada.”
Medidas de proteção e limitações
Para conter abusos, a OpenAI adicionou marcas-d’água e metadados invisíveis aos arquivos, além de filtros automáticos. Contudo, usuários da primeira versão já demonstraram ser possível burlar parte dessas barreiras, como removendo a marca-d’água por simples cortes na imagem.
Imagem: FilipArtLab
Hany Farid, especialista em autenticidade digital e também professor em Berkeley, alerta que qualquer recomendação sobre como detectar falsificações “terá vida curta”, pois a qualidade dos algoritmos de geração evolui diariamente. A preocupação ganha relevo em períodos eleitorais, quando vídeos fabricados podem influenciar decisões de voto no Brasil e em outras democracias.
Enquanto a disputa entre criadores de conteúdo sintético e sistemas de verificação se intensifica, plataformas, reguladores e o próprio público tentam acompanhar o ritmo da inovação para preservar a fidelidade dos registros visuais.
Com informações de WizyThec

