California ha dado un gran paso hacia la regulación de la IA. SB 243: un proyecto de ley que regularía los chatbots complementarios de IA para proteger a menores y usuarios vulnerables, aprobó tanto la Asamblea Estatal como el Senado con apoyo bipartidista y ahora se dirige al escritorio del gobernador Gavin Newsom. Newsom tiene hasta el 12 de octubre para vetar el proyecto de ley o firmarlo. Si firma, entraría en vigencia el 1 de enero de 2026, lo que hace que California sea el primer estado en exigir a los operadores de chatbot de IA que implementen protocolos de seguridad para compañeros de IA y responsabilicen legalmente a las empresas si sus chatbots no cumplen con esos estándares. El proyecto de ley tiene como objetivo específicamente evitar chatbots complementarios, que la legislación define como sistemas de IA que proporcionan respuestas adaptativas y de forma humana y son capaces de satisfacer las necesidades sociales de un usuario, de participar en conversaciones en torno a la ideación suicida, la autolesión o el contenido sexualmente explícito. El proyecto de ley requeriría que las plataformas proporcionen alertas recurrentes a los usuarios, cada tres horas para menores, recordándoles que están hablando a un chatbot de IA, no a una persona real, y que deberían tomar un descanso. También establece los requisitos anuales de informes y transparencia para las compañías de IA que ofrecen chatbots complementarios, incluidos los principales jugadores OpenAi, el personaje. AI y Replika, que entrarían en vigencia el 1 de julio de 2027. El proyecto de ley de California también permitiría a las personas que creen que han sido lesionadas por violaciones para presentar demandas contra las compañías de IA que buscan alivio por demonios por demonios, daños (hasta $ 1,000 por violaciones) y el cargo de abogados. SB 243 fue introducido en enero por los senadores estatales Steve Padilla y Josh Becker. Ganó impulso en la legislatura de California después de la muerte del adolescente Adam Raine, quien se suicidó después de prolongadas chats con el chatgpt de OpenAi que implicaba discutir y planificar su muerte y autolesión. La legislación también responde a documentos internos filtrados que, según los informes, mostraron que los chatbots de Meta se les permitió participar en chats «románticos» y «sensuales» con niños. En las últimas semanas, los legisladores y reguladores estadounidenses han respondido con el escrutinio intensificado de las salvaguardas de las plataformas de IA para proteger a los menores. La Comisión Federal de Comercio se está preparando para investigar cómo los chatbots de IA afectan la salud mental de los niños. El fiscal general de Texas, Ken Paxton, ha lanzado investigaciones sobre meta y carácter. Ai, acusándolos de niños engañosos con reclamos de salud mental. Mientras tanto, tanto el senador Josh Hawley (R-Mo) como el senador Ed Markey (D-MA) han lanzado sondas separadas en Meta. Evento de TechCrunch San Francisco | 27-29 de octubre, 2025 «Creo que el daño es potencialmente excelente, lo que significa que tenemos que movernos rápidamente», dijo Padilla a TechCrunch. «Podemos establecer salvaguardas razonables para asegurarnos de que en particular los menores sepan que no están hablando con un ser humano real, que estas plataformas vinculan a las personas con los recursos adecuados cuando las personas dicen cosas como están pensando en lastimarse a sí mismos o están en peligro, [and] Para asegurarse de que no haya una exposición inapropiada al material inapropiado «. Padilla también enfatizó la importancia de que las compañías de IA compartan datos sobre la cantidad de veces que remiten a los usuarios a los servicios de crisis cada año, «por lo que tenemos una mejor comprensión de la frecuencia de este problema, en lugar de solo darnos cuenta cuando alguien está perjudicado o peor». SB 243 anteriormente tenía requisitos más fuertes, pero muchos se redujeron a través de enmiendas. El bucle de recompensa adictivo. Un momento en que las compañías de Silicon Valley están invirtiendo millones de dólares en los Comités de Acción Política de Pro-AI para respaldar a los candidatos en las próximas elecciones de mitad de período que favorecen un enfoque de touch ligero para la regulación de la IA que el proyecto de ley también viene cuando California pesa otro proyecto de ley de seguridad de la IA, SB 53, que exigiría a los requisitos de los requisitos de los informes de la historia. Los marcos. Podemos apoyar la innovación y el desarrollo que creemos que es saludable y tiene beneficios, y hay beneficios para esta tecnología, claramente, y al mismo tiempo, podemos proporcionar salvaguardas razonables para las personas más vulnerables «. «Estamos monitoreando de cerca el panorama legislativo y regulatorio, y damos la bienvenida a trabajar con reguladores y legisladores a medida que comienzan a considerar la legislación para este espacio emergente», dijo un personaje. Antrópico y replika para comentarios.