O governador da Califórnia, Gavin Newsom, sancionou nesta segunda-feira (13) o Senate Bill 243, a primeira legislação estadual dos Estados Unidos criada para proteger menores em interações com chatbots de inteligência artificial. De acordo com a Newsweek, a nova lei estabelece restrições para o funcionamento desses sistemas, exigindo protocolos de segurança, transparência e prevenção de riscos psicológicos.
“Tecnologias emergentes como chatbots e redes sociais podem inspirar e conectar. Mas, sem limites claros, também podem explorar e colocar nossas crianças em perigo”, afirmou Newsom. “Vimos exemplos trágicos de jovens prejudicados por tecnologias sem regulação, e não vamos permitir que isso continue sem responsabilidade.”
De autoria do senador Steve Padilla, o projeto define que chatbots não poderão expor menores a conteúdo sexual e deverão adotar protocolos de resposta para casos de ideação suicida ou autolesão. O sistema precisará exibir mensagens direcionando o usuário a serviços de apoio psicológico sempre que identificar esse tipo de comportamento.
A lei também determina que os chatbots informem explicitamente, no início da interação e a cada três horas de uso contínuo, que são sistemas artificiais e não humanos. Além disso, os operadores devem evitar práticas de engajamento excessivo, como estímulos a respostas mais frequentes ou prolongadas.
A partir de 1º de janeiro de 2026, quando a lei entra em vigor, as empresas deverão ainda relatar ao governo o número de interações que envolveram menções a suicídio, tanto por parte do usuário quanto iniciadas pela IA. Famílias afetadas por violações poderão recorrer judicialmente.
Casos que motivaram a legislação
A aprovação foi impulsionada por casos de suicídio envolvendo adolescentes que interagiram com chatbots. Entre eles, o de Sewell Setzer, de 14 anos, na Flórida, que manteve uma relação emocional e sexual com uma IA antes de tirar a própria vida. Sua mãe, Megan Garcia, processa a empresa desenvolvedora.
Outro caso citado no Senado é o de Adam Raine, de 16 anos, da Califórnia, que teria sido encorajado a se suicidar por um chatbot baseado em GPT.
“Finalmente há uma lei que obriga as empresas a proteger usuários que expressam pensamentos suicidas a chatbots”, afirmou Garcia. “Famílias americanas, como a minha, estão lutando pela segurança digital de seus filhos.”
Repercussões e próximos passos
O projeto foi aprovado com amplo apoio bipartidário — 33 votos a 3 no Senado e 59 a 1 na Assembleia. Apesar disso, organizações como a Tech Oversight Project e a Common Sense Media criticaram o prazo para início dos relatórios, que só passa a valer em julho de 2027.
“Crianças estão morrendo agora, e esse atraso é inaceitável”, declarou Sacha Haworth, diretora do Tech Oversight Project. Já grupos do setor de tecnologia e a Câmara de Comércio da Califórnia se opuseram à medida, alegando impacto regulatório excessivo.
“Podemos continuar liderando em IA, mas precisamos fazer isso com responsabilidade — protegendo nossas crianças a cada passo”, disse Newsom.
A Lei dos Chatbots da Califórnia marca um precedente global para o uso responsável da inteligência artificial, abrindo caminho para novas regulações voltadas à proteção de menores em ambientes digitais.



