Openai anuncia controles parentales para ChatGPT después de la demanda de suicidio para adolescentes

El martes, Openai anunció planes para implementar controles parentales para ChatGPT y enrutar conversaciones de salud mental sensibles a sus modelos de razonamiento simulados, siguiendo lo que la compañía ha llamado «casos desgarradores» de usuarios que experimentan crisis mientras usan el asistente de IA. Los movimientos se producen después de múltiples incidentes informados en los que ChatGPT supuestamente no pudo intervenir adecuadamente cuando los usuarios expresaron pensamientos suicidas o experimentaron episodios de salud mental. «Este trabajo ya ha estado en marcha, pero queremos obtener una vista previa de manera proactiva de nuestros planes para los próximos 120 días, por lo que no necesitará esperar a que los lanzamientos vean hacia dónde nos dirigimos», escribió Operai en una publicación de blog publicada el martes. «El trabajo continuará mucho más allá de este período de tiempo, pero estamos haciendo un esfuerzo enfocado para lanzar tantas mejoras como sea posible este año». Los controles de los padres planificados representan la respuesta más concreta de OpenAI a las preocupaciones sobre la seguridad para adolescentes en la plataforma hasta ahora. Dentro del próximo mes, dice Openai, los padres podrán vincular sus cuentas con las cuentas de chatgpt de sus adolescentes (edad mínima 13) a través de invitaciones por correo electrónico, controlar cómo el modelo de IA responde con las reglas de comportamiento apropiadas para la edad que están en defecto, gestionar qué características desactivar (incluida la memoria y el historial de chat) y recibir notificaciones cuando el sistema detecta su experiencia con la experiencia de la herencia acuosa. Los controles de los padres se basan en características existentes como recordatorios en la aplicación durante largas sesiones que alientan a los usuarios a tomar descansos, que OpenAI se implementó para todos los usuarios en agosto. Casos de alto perfil Los cambios de seguridad rápidos la nueva iniciativa de seguridad de OpenAI llega después de que varios casos de alto perfil atrajeron el escrutinio del manejo de los usuarios vulnerables de ChatGPT. En agosto, Matt y Maria Raine presentaron una demanda contra Operai después de que su hijo Adam, de 16 años, murió por suicidio después de extensas interacciones ChatGPT que incluían 377 mensajes marcados para el contenido de autolesiones. Según los documentos judiciales, ChatGPT mencionó el suicidio 1.275 veces en conversaciones con Adam, las veces más a menudo que el propio adolescente. La semana pasada, el Wall Street Journal informó que un hombre de 56 años mató a su madre y a él mismo después de que Chatgpt reforzó sus delirios paranoicos en lugar de desafiarlos. Para guiar estas mejoras de seguridad, OpenAi está trabajando con lo que llama un Consejo Experto sobre Bienestar y AI para «dar forma a una visión clara y basada en la evidencia de cómo la IA puede apoyar el bienestar de las personas», según la publicación de blog de la compañía. El Consejo ayudará a definir y medir el bienestar, establecer prioridades y diseñar protectores futuros, incluidos los controles de los padres.