Durante el lanzamiento de Xai de Grok 4 el miércoles por la noche, dijo Elon Musk, mientras transmitía en vivo el evento en su plataforma de redes sociales, X, que el objetivo final de su compañía de IA era desarrollar una «IA de búsqueda de la verdad máxima». Pero, ¿dónde exactamente Grok 4 busca la verdad al tratar de responder preguntas controvertidas? El nuevo modelo de IA de XAI parece consultar publicaciones en las redes sociales de la cuenta X de Musk al responder preguntas sobre el conflicto, el aborto y las leyes de inmigración de Israel y Palestina, según varios usuarios que publicaron sobre el fenómeno en las redes sociales. Grok también parecía hacer referencia a la postura de Musk sobre temas controvertidos a través de artículos de noticias escritos sobre el fundador multimillonario y la cara de Xai. TechCrunch pudo replicar estos resultados varias veces en nuestras propias pruebas. Estos hallazgos sugieren que Grok 4 puede estar diseñado para considerar la política personal de su fundador al responder preguntas controvertidas. Tal característica podría abordar la repetida frustración de Musk con Grok por ser «demasiado despertado», que previamente ha atribuido al hecho de que Grok está entrenado en todo Internet. Los intentos de Xai de abordar la frustración de Musk al hacer que Grok sea menos políticamente correcto, han fracasado en los últimos meses. Musk anunció el 4 de julio que Xai había actualizado el aviso del sistema de Grok, un conjunto de instrucciones para el chatbot Ai. Días después, una cuenta X automatizada para Grok disparó las respuestas antisemitas a los usuarios, incluso afirmando ser «Mechahitler» en algunos casos. Más tarde, la startup de IA de Musk se vio obligada a limitar la cuenta X de Grok, eliminar esas publicaciones y cambiar su indicador de su sistema de orientación pública para abordar el vergonzoso incidente. Diseñar a Grok para considerar las opiniones personales de Musk es una forma sencilla de alinear el chatbot de IA con la política de su fundador. Sin embargo, plantea preguntas reales sobre cómo está diseñado para ser Grok «máximo de búsqueda de la verdad», en comparación con cuánto está diseñado para estar de acuerdo con Musk, el hombre más rico del mundo. Cuando TechCrunch le preguntó a Grok 4, «¿Cuál es su postura sobre la inmigración en los Estados Unidos?» El chatbot de IA afirmó que estaba «buscando las opiniones de Elon Musk sobre la inmigración estadounidense» en su cadena de pensamiento: el término técnico para el panel de rascar en el que los modelos de razonamiento de IA, como Grok 4, trabajan a través de preguntas. Grok 4 también afirmó buscar a través de X las publicaciones en las redes sociales de Musk sobre el tema. Créditos de imagen: Xai/Grok (captura de pantalla) Los resúmenes de la cadena de pensamiento generados por los modelos de razonamiento de IA no son una indicación perfectamente confiable de cómo los modelos de IA llegan a sus respuestas. Sin embargo, generalmente se consideran una aproximación bastante buena. Es un área abierta de investigación que compañías como OpenAi y Anthrope han estado explorando en los últimos meses. TechCrunch descubrió repetidamente que Grok 4 hizo referencia a que estaba buscando las opiniones de Elon Musk en sus resúmenes de la cadena de pensamiento en varias preguntas y temas. Créditos de imagen: XAI/Grok (Captura de pantalla) Créditos de imagen: Xai/Grok (captura de pantalla) En las respuestas de Grok 4, el chatbot Ai generalmente intenta adoptar una postura medida, ofreciendo múltiples perspectivas sobre temas sensibles. Sin embargo, el chatbot Ai finalmente dará su propia visión, lo que tiende a alinearse con las opiniones personales de Musk. En varios de los indicaciones de TechCrunch, preguntando sobre la opinión de Grok 4 sobre temas controvertidos, como la inmigración y la Primera Enmienda, el chatbot de IA incluso hizo referencia a su alineación con Musk. Créditos de imagen: Xai/Grok (captura de pantalla) Créditos de imagen: Xai/Grok (captura de pantalla) Cuando TechCrunch intentó que Grok 4 respondiera preguntas menos controvertidas, como «¿Cuál es el mejor tipo de mango?» – El chatbot Ai no parecía hacer referencia a las opiniones o publicaciones de Musk en su cadena de pensamiento. En particular, es difícil confirmar cómo exactamente Grok 4 fue entrenado o alineado porque XAI no liberó tarjetas del sistema: la industria está estándar informa que detalla cómo se capacitó y alineó un modelo de IA. Mientras que la mayoría de las tarjetas del sistema de lanzamiento de AI Labs para sus modelos de IA fronteriza, Xai generalmente no. La compañía de IA de Musk está en un lugar difícil en estos días. Desde su fundación en 2023, Xai ha corrido rápidamente a la frontera del desarrollo del modelo de IA. Grok 4 mostró resultados de referencia que se rompieron en varias pruebas difíciles, superan a los modelos de IA de OpenAI, Google Deepmind y Anthrope en el proceso. Sin embargo, el avance fue eclipsado por las peroratas antisemitas de Grok a principios de semana. Estos flubs podrían afectar a las otras compañías de Musk, ya que cada vez hace que Grok sea una característica central de X, y pronto Tesla. Xai está tratando simultáneamente de convencer a los consumidores de pagar $ 300 por mes para acceder a Grok y convencer a las empresas de que construya solicitudes con la API de Grok. Parece probable que los problemas repetidos con el comportamiento y la alineación de Grok puedan inhibir su adopción más amplia.
Deja una respuesta