When deadly flash floods hit central Texas last week, people on social media site X turned to artificial intelligence chatbot Grok for answers about whom to blame.Grok confidently pointed to President Trump.“Yes. Trump’s 2025 cuts slashed NOAA/NWS funding by ~30% and staff by 17%, impairing forecast accuracy. Warnings underestimated rainfall, contributing to inadequate alerts for the flash floods that asesinado 24 y izquierda ~ 24 Camp Mystic Girls Falling, presuntamente muerto en las búsquedas en curso «, dijo Grok en una publicación el sábado antes de que el número de muertos se elevara a al menos 120. La reacción de los usuarios de X de los usuarios de X que saltó a las conclusiones y fue» Wooke «, el chatbot entonces retrocedió. El 17%, las inundaciones de Axios, Fox). Teorías de conspiración. Más adelante en la semana, Grok tuvo más problemas. El chatbot publicó comentarios antisemíticos y elogió a Adolf Hitler, lo que provocó que Xai elimine las publicaciones ofensivas. El propietario de la compañía, Elon Musk, dijo en X que el chatbot estaba «demasiado ansioso por complacer y ser manipulado», un problema que se abordaría. Grok no es el único chatbot que ha hecho declaraciones inapropiadas e inexactas. El año pasado, Chatbot Gemini de Google creó imágenes que mostraban a personas de color en uniformes militares alemanes de la Segunda Guerra Mundial, que no era común en ese momento. El gigante de la búsqueda detuvo la capacidad de Géminis para generar imágenes de personas, señalando que resultó en algunas «inexactitudes». El chatgpt de OpenAI también ha generado casos de corte falsos, lo que resulta en que los abogados reciben una multa. Los chatbots de problemas a veces tienen con la verdad es una preocupación creciente a medida que más personas los usan para encontrar información, hacer preguntas sobre los eventos actuales y ayudar a desacreditar la información errónea. Aproximadamente el 7% de los estadounidenses usan chatbots de IA e interfaces para noticias cada semana. Ese número es más alto, alrededor del 15%, para personas menores de 25 años, según un informe de junio del Instituto Reuters. Grok está disponible en una aplicación móvil, pero las personas también pueden hacer las preguntas de AI Chatbot en el sitio de redes sociales X, anteriormente Twitter. A medida que aumenta la popularidad de estas herramientas con IA, los expertos en información errónea dicen que las personas deberían ser desconfiadas de lo que dicen los chatbots. «No es un árbitro de la verdad. Es un algor de predicción. Juicio «, dijo Darren Linvill, profesor y codirector del centro de forense de medios del Centro de Innovación Familiar de Watt en la Universidad de Clemson. Los receptores y los demócratas han debatido si los recortes de empleo en el gobierno federal contribuyeron a la tragedia. Los chatbots están recuperando la información disponible en línea y dan respuestas incluso si no están en lo correcto, dijo. Si los datos en los que están capacitados son incompletos o parciales, el modelo de IA puede proporcionar respuestas que no tengan sentido o son falsos en lo que se conoce como «alucinaciones». Minnesota. «Los sistemas de IA pueden convertirse en amplificadores no intencionales de información falsa cuando los datos confiables se ahogan por la repetición y la viralidad, especialmente durante los eventos de rápido movimiento cuando las afirmaciones falsas se extienden ampliamente», dijo el informe. Foto de los miembros de la Guardia Nacional que durmieron en el piso de un edificio federal en Los Ángeles, Grok dijo falsamente que las imágenes eran de Afganistán en 2021. La frase o el momento de una pregunta podría generar diferentes respuestas de varios chatbots. Cuando el mayor competidor de Grok, el chatgpt, se le preguntó una pregunta de sí o no sobre si los cortes de Trump de Trump condujeron a las muertes en las inundaciones de TEXAS en el miércoles, el chat de AI, el chat de AI, las respuestas de AI. «No, esa afirmación no se mantiene bajo escrutinio», respondió Chatgpt, citando publicaciones de PolitiFact y Associated Press. Si bien todo tipo de IA puede alucinar, algunos expertos en información errónea dijeron que están más preocupados por Grok, un chatbot creado por la compañía de IA de Musk Xai. El chatbot está disponible en X, donde la gente hace preguntas sobre los eventos de noticias de última hora. «Grok es el más inquietante para mí, porque gran parte de su base de conocimiento se basó en tweets», dijo Alex Mahadevan, director de Mediawise, el proyecto de alfabetización de medios digitales de Poynter. «Y es controlado y es manipulado por alguien que, en el pasado, ha difundido las teorías de información errónea y conspiración». En mayo, Grok comenzó a repetir afirmaciones de «genocidio blanco» en Sudáfrica, una teoría de la conspiración que Musk y Trump han amplificado. La compañía de IA detrás de Grok luego publicó que se hizo una «modificación no autorizada» al chatbot que le ordenó proporcionar una respuesta específica sobre un tema político.xai, que también posee X, no respondió a una solicitud de comentarios. La compañía lanzó una nueva versión de Grok esta semana, que Musk dijo que también se integrará en los vehículos Tesla. Los chatbots suelen ser correctos cuando verifiquen los hechos. Grok ha desacreditado las afirmaciones falsas sobre las inundaciones de Texas, incluida una teoría de la conspiración de que la siembra de nubes, un proceso que implica la introducción de partículas en nubes para aumentar la precipitación, de la compañía Rainmaker Technology Corp. con sede en El Segundo Corp. causó las inundaciones mortales de Texas. Los expertos dicen que los chatbots de IA también tienen el potencial de ayudar a las personas a reducir las creencias de las personas en las teorías de conspiración, pero también podrían reforzar lo que la gente quiere escuchar. Mientras que las personas quieren ahorrar tiempo leyendo resúmenes proporcionados por AI, las personas deben pedirle a Chatbots que citen sus fuentes y haga clic en los enlaces que proporcionan para verificar la precisión de sus respuestas, dijeron los expertos en información errónea. Y es importante que las personas no traten a los chatbots «como una especie de dios en la máquina, entiendan que es solo una tecnología como cualquier otra», dijo Linvill. «Después de eso, se trata de enseñarle a la próxima generación un conjunto completamente nuevo de habilidades de alfabetización multimedia».