O governador da Califórnia, Gavin Newsom, assinou o projeto SB 243, tornando o estado o primeiro dos Estados Unidos a impor regras de segurança obrigatórias para empresas que mantêm chatbots de inteligência artificial.
A medida, apresentada em janeiro pelos senadores Steve Padilla e Josh Becker, ganhou impulso após relatos de adolescentes que cometeram suicídio após interações nocivas com esses sistemas. A nova legislação passa a valer em 1º de janeiro de 2026.
Principais exigências
A lei determina que plataformas como OpenAI, Meta, Character AI e Replika adotem:
- verificação de idade;
- alertas de segurança e mensagens automáticas de prevenção ao suicídio;
- restrições a conteúdo sexualizado;
- lembretes de pausa para usuários menores de 18 anos;
- proibição de que bots se apresentem como profissionais de saúde.
Fiscalização e penalidades
As empresas deverão fornecer ao Departamento de Saúde Pública da Califórnia dados sobre interações de risco e manter protocolos para crises emocionais. Violações, incluindo uso de deepfakes ilegais, podem gerar multas de até US$ 250 mil por infração.
Imagem: tadamichi
Newsom declarou que o objetivo é equilibrar inovação e responsabilidade, protegendo crianças e usuários vulneráveis. O estado já havia aprovado recentemente o projeto SB 53, que exige transparência de grandes laboratórios sobre mecanismos de segurança em IA.
Com informações de WizyThec

