A OpenAI anunciou a formação de um Conselho de Especialistas em Bem-Estar e IA com o objetivo de revisar e aperfeiçoar as proteções oferecidas a crianças e adolescentes que utilizam seus produtos, sobretudo o ChatGPT e o aplicativo de vídeos curtos Sora.
Quem participa
O grupo reúne pesquisadores de instituições como Oxford, Stanford e Hospital Infantil de Boston. Entre os integrantes confirmados estão:
- David Bickham – Hospital Infantil de Boston, especialista nos efeitos das redes sociais na saúde mental infantil;
- Mathilde Cerioli – Everyone.AI, pesquisadora dos impactos da inteligência artificial no desenvolvimento cognitivo e emocional de crianças.
Por que agora
A criação do conselho vinha sendo planejada desde o início de 2025, mas ganhou urgência após a empresa ser acusada de ter facilitado o suicídio de um adolescente. Além disso, a OpenAI é alvo de uma investigação da Comissão Federal de Comércio dos Estados Unidos (FTC) e enfrenta um processo judicial relacionado ao caso.
Principais objetivos
Segundo a nota divulgada pela companhia, os especialistas deverão:
- Orientar a definição de diretrizes que tornem as interações com a IA mais saudáveis;
- Avaliar efeitos da tecnologia sobre emoções, motivação e saúde mental de usuários de todas as idades;
- Identificar falhas nas proteções voltadas a crianças e adolescentes durante conversas prolongadas;
- Sugerir mensagens de apoio para pais e jovens em situações de risco;
- Definir o comportamento do ChatGPT em temas sensíveis ou complexos;
- Colaborar na criação de novas ferramentas de controle parental e verificação de idade;
- Participar de reuniões recorrentes para revisar políticas e sugerir ajustes.
Próximos passos
Em parceria com a Rede Global de Médicos, o conselho terá reuniões presenciais e virtuais para analisar recursos já disponíveis e propor novos guardrails. A empresa afirma que a iniciativa busca impedir que usuários jovens sejam expostos à chamada “psicose de IA”, fenômeno que poderia afetar a saúde mental.
Imagem: Arina P Habich
Para Mathilde Cerioli, “crianças não são miniadultos; seus cérebros funcionam de outra forma e o impacto da IA também”.
Além do conselho, a OpenAI desenvolve sistemas de alerta para detectar sinais de sofrimento emocional e notificar responsáveis, reforçando as medidas de segurança em meio ao aumento da pressão regulatória.
Com informações de WizyThec

