Anthrope ha introducido una nueva característica en sus modelos Claude Opus 4 y 4.1 que permite que la herramienta generativa de IA (Genai) termine una conversación por sí solo si un usuario intenta repetidamente presionar contenido dañino o ilegal. Se supone que el nuevo comportamiento solo se usa cuando todos los intentos de redirigir una conversación han fallado o cuando un usuario solicita que la conversación se termine. No está diseñado para ser activado en situaciones en las que las personas corren el riesgo de dañarse a sí mismas o a los demás. Los usuarios aún pueden iniciar nuevas conversaciones o continuar una anterior editando sus respuestas. El propósito de la característica no es proteger a los usuarios; es para el modelo en sí. Si bien Anthrope enfatiza que no considera que Claude sea sensible, las pruebas encontraron que el modelo mostró una fuerte resistencia y «incomodidad aparente» a ciertos tipos de solicitudes. Por lo tanto, la compañía ahora está probando medidas para un mejor «bienestar de la IA», en caso de que se vuelva relevante en el futuro.
Deja una respuesta