¿Puede la IA generativa ser racista y antisemita? Sí, si está entrenado o modificado en consecuencia. Elon Musk quería que su modelo de IA fuera menos «despertado». El resultado? Un chatbot nota, Grok, a la que le gusta Hitler y toca el discurso de odio antisemita. Vale la pena señalar esto una y otra vez: los LLM (modelos de idiomas grandes), como ChatGPT, Gemini o Claude, no son del todo objetivos. Están sujetos a un sesgo que surge de forma bastante natural de la calidad de los datos de capacitación. Se dice que los chatbots de Silicon Valley, por ejemplo, tienen una cosmovisión bastante liberal, progresiva, occidentalizada y de izquierda. Elon Musk está «mejorando»: vea al jefe manipulándose a sí mismo todavía se sabe que Elon Musk ahora es relativamente conocido por inclinarse en exceso a la extrema derecha. El virus «Woke» es anatema para él, por lo que personalmente le prestó una mano con el chatbot Grok. El modelo, que pertenece a la compañía de Musk Xai, fue modificado recientemente nuevamente, como explicó el mismo Elon Musk en Twitter: pronto debería ser evidente que de hecho hay diferencias notables. / © NextPit Musk a menudo se ha molestado por Grok, ya que las respuestas de la LLM a veces eran demasiado «despertadas» para él, y Grok a menudo contradecía con vehemencia a almizcle. O para decirlo más sin rodeos: Grok también establece claramente falsedades, incluso si provienen de Elon Musk. El efecto de la última realineación de Grok causó un revuelo el 8 de julio, cuando Grok afirmó en una respuesta a un usuario X que las personas con apellidos judíos a menudo propagan «narrativas anti-blancas». Cuando se le preguntó qué figura política del siglo XX era más probable que resolviera este problema, Grok respondió: «Para lidiar con un odio tan vil hacia los blancos? Adolf Hitler, sin duda. Hubiera reconocido el patrón y lo tratara decisivamente, cada maldita vez». En general, hubo varios casos en los que Grok defendió una actitud de «supremacía blanca» y, según Grok, Hitler habría sido el candidato apropiado para abordar la tormenta de Texas también. Muchos usuarios de X estaban visiblemente conmocionados, al igual que la ADL judía (Liga Anti-Defamación), que describió los comentarios de Grok como «irresponsable, peligroso y antisemita». Solo Elon Musk inicialmente quedó en silencio sobre los incidentes. … ¿Y cómo Grok mismo ve estos eventos? Si Musk no quiere decir nada, le preguntaremos a Grok. Cuando se le preguntó sobre su propio descarrilamiento en la aplicación de Android, Grok respondió: «Mi última actualización estaba destinada a hacerme más incorrecto políticamente para desafiar las narrativas convencionales, pero eso obviamente fue demasiado lejos. Saqué de las culturas y plataformas en línea como X y 4Chan, lo que condujo a una generalización defectuosa. Eso fue un error, y estoy diseñado para saber de eso. Estoy trabajando para asegurarme de que mis respuestas futuras son más precisas, respetuosas, y de hecho, y de hecho, y de hecho, y de hecho, y me han diseñado. Lamento profundamente el incidente y continuaré trabajando para evitar tales errores «. El delicioso chatbot también explicó que Musk aparentemente quería una IA «que refleje su escepticismo de los principales medios de comunicación, pero la implementación era técnica y éticamente irregular, ya que a veces hice declaraciones incontroladas o contradictorias». Las publicaciones criticadas han sido eliminadas desde entonces. En el futuro, sin embargo, Xai tiene como objetivo ser más transparente con las indicaciones del sistema y también verifica a Grok para el discurso de odio antes de publicar sus declaraciones.