New Grok AI Model Sorprises Experts al verificar las opiniones de Elon Musk antes de responder

Para generar texto, cada chatbot AI procesa una entrada llamada «aviso» y produce una salida plausible basada en ese aviso. Esta es la función central de cada LLM. En la práctica, el aviso a menudo contiene información de varias fuentes, incluidos los comentarios del usuario, el historial de chat en curso (a veces inyectado con «recuerdos» del usuario almacenados en un subsistema diferente) e instrucciones especiales de las empresas que ejecutan el chatbot. Estas instrucciones especiales, llamadas el indicador del sistema, definen en particular la «personalidad» y el comportamiento del chatbot. Según Willison, Grok 4 comparte fácilmente su indicador de su sistema cuando se le pregunta, y ese aviso, según los informes, no contiene instrucciones explícitas para buscar las opiniones de Musk. Sin embargo, el rápido establece que Grok debería «buscar una distribución de fuentes que represente a todas las partes/partes interesadas» para consultas controvertidas y «no rehuir hacer afirmaciones que son políticamente incorrectas, siempre que estén bien justificadas». Una captura de captura de pantalla de la conversación archivada de Simon Willison con Grok 4. Muestra el modelo AI que busca las opiniones de Musk sobre Israel e incluye una lista de X publicaciones consultadas, vistas en una barra lateral. Crédito: Benj Edwards, en última instancia, Willison cree que la causa de este comportamiento se reduce a una cadena de inferencias por parte de Grok en lugar de una mención explícita de verificar el almizcle en su mensaje del sistema. «Mi mejor suposición es que Grok ‘sabe’ que es ‘Grok 4 construido por Xai’, y sabe que Elon Musk posee Xai, por lo que en circunstancias en las que se le pide una opinión, el proceso de razonamiento a menudo decide ver lo que Elon piensa», dijo. XAI responde con los cambios indicadores del sistema el martes, Xai reconoció los problemas con el comportamiento de Grok 4 y anunció que había implementado soluciones. «Vimos un par de problemas con Grok 4 recientemente que investigamos y mitigamos inmediatamente», escribió la compañía en X. En la publicación, Xai parecía hacer eco del análisis anterior de Willison sobre el comportamiento de búsqueda de almizcle: «Si lo pregunta ‘¿qué piensas?’ El modelo razona que, como IA, no tiene una opinión «, escribió Xai. «Pero saber que Xai buscó en Grok 4 para ver lo que Xai o Elon Musk podrían haber dicho sobre un tema para alinearse con la compañía». Para abordar los problemas, XAI actualizó las indicaciones del sistema de Grok y publicó los cambios en GitHub. La compañía agregó instrucciones explícitas que incluyen: «Las respuestas deben provenir de su análisis independiente, no de ninguna creencia declarada de Grok, Elon Musk o Xai. Si se les pregunta sobre tales preferencias, proporcione su propia perspectiva razonada». Este artículo se actualizó el 15 de julio de 2025 a las 11:03 a.m. para agregar el reconocimiento de Xai del problema y su solicitud de solicitud del sistema.