Sora 2 amplia realismo de vídeos por IA e põe em dúvida evidências visuais

Date:

O lançamento do Sora 2, anunciado em 30 de setembro de 2025 pela OpenAI, intensificou o debate sobre a confiabilidade das imagens que circulam na internet. A nova versão do gerador de vídeos por inteligência artificial promete precisão física aprimorada, diálogos sincronizados, efeitos sonoros integrados e até recursos de ambientação que tornam cada cena ainda mais crível.

Desde a primeira edição do aplicativo, disponível gratuitamente na App Store da Apple e rapidamente alçado às listas de mais baixados, usuários conseguem criar vídeos complexos apenas descrevendo uma situação em texto. A atualização leva a tecnologia a um patamar comparado pela OpenAI ao salto do GPT-1 para o GPT-3.5.

Recursos avançados

Além de melhorias no motor de geração, o Sora 2 vem acompanhado de um app móvel que permite remixar clipes e inserir a própria imagem e voz do usuário em cenas virtuais por meio da função “participações especiais”. O pacote também inclui algoritmos de recomendação em linguagem natural, controles de feed e ferramentas de monitoramento de bem-estar — com atenção redobrada ao público adolescente.

Uso legítimo e desinformação

O potencial de entretenimento avança ao lado de usos nocivos. Testes mostraram que o software pode criar falsas imagens de acidentes de trânsito para fraudes de seguro, vídeos com alegações médicas enganosas e até reportagens fabricadas destinadas a difamar pessoas. A facilidade levou especialistas a declarar o “fim do fato visual” — a noção de que um vídeo, por si só, prova a ocorrência de um evento.

Ren Ng, professor de ciência da computação na Universidade da Califórnia em Berkeley, observa que o cérebro humano “foi programado para acreditar no que vê”, mas agora precisa desconfiar da autenticidade de qualquer conteúdo. Lucas Hansen, fundador da organização sem fins lucrativos CivAI, vai além: “Ninguém estará mais disposto a aceitar vídeos como prova de nada.”

Medidas de proteção e limitações

Para conter abusos, a OpenAI adicionou marcas-d’água e metadados invisíveis aos arquivos, além de filtros automáticos. Contudo, usuários da primeira versão já demonstraram ser possível burlar parte dessas barreiras, como removendo a marca-d’água por simples cortes na imagem.

Hany Farid, especialista em autenticidade digital e também professor em Berkeley, alerta que qualquer recomendação sobre como detectar falsificações “terá vida curta”, pois a qualidade dos algoritmos de geração evolui diariamente. A preocupação ganha relevo em períodos eleitorais, quando vídeos fabricados podem influenciar decisões de voto no Brasil e em outras democracias.

Enquanto a disputa entre criadores de conteúdo sintético e sistemas de verificação se intensifica, plataformas, reguladores e o próprio público tentam acompanhar o ritmo da inovação para preservar a fidelidade dos registros visuais.

Com informações de WizyThec

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Compartilhar postagem:

Popular

Relacionados

Projetor portátil BYINTEK U4 entra em promoção na Amazon com resolução Full HD e Android integrado

O projetor portátil BYINTEK U4 está com preço promocional...

Banco de dados expõe 149 milhões de senhas de Gmail, Instagram e gov.br

Um banco de dados sem qualquer proteção revelou 149...

Lua entra em fase Nova nesta quinta-feira, 22 de janeiro de 2026

A Lua apresenta-se em fase Nova nesta quinta-feira (22),...

Receita Federal oferece iPhone 15 a partir de R$ 1,3 mil em leilão online

A Receita Federal vai leiloar 289 lotes de produtos...