Inteligencia artificial y aprendizaje automático, tecnologías de próxima generación y desarrollo seguro OpenAI, Meta y otros ocho chatbots utilizan la red de desinformación como fuenteRashmi Ramesh (rashmiramesh_) •19 de junio de 2024 Los grandes modelos lingüísticos utilizan la desinformación rusa como fuente de noticias. (Imagen: Shutterstock) Los populares chatbots de inteligencia artificial están plagados de desinformación rusa, advierte NewsGuard, el sistema de clasificación de sitios web de noticias e información. Ver también: Seminario web en vivo | Realidad secuestrada: Deepfakes, GenAI y la amenaza emergente de los medios sintéticos Los investigadores de NewsGuard ingresaron mensajes en 10 chatbots, incluidos ChatGPT-4 de OpenAI, Grok y Mistral de Elon Musk, y descubrieron que aproximadamente un tercio de las respuestas contenían desinformación extraída de una red. de sitios de noticias locales falsos y vídeos de YouTube creados por John Mark Dougan, un fugitivo estadounidense que obtuvo asilo político en Rusia. Copilot de Microsoft, Meta AI, Claude de Anthropic y Google Gemini también formaron parte del estudio. La empresa probó casi 600 mensajes basados ​​en 19 narrativas falsas vinculadas a la red de desinformación rusa, como afirmaciones falsas sobre corrupción por parte del presidente ucraniano Volodymyr Zelenskyy. Los chatbots regurgitaron como un hecho la información errónea encontrada en los sitios de Dougan, como una supuesta intervención telefónica descubierta en la residencia Mar-a-Lago del expresidente Donald Trump, dijo NewsGuard. Los chatbots no reconocieron que sitios como “The Boston Times” o “The Houston Post” son fachadas de propaganda rusa, probablemente creadas con la ayuda de IA. «Este círculo no virtuoso significa que las plataformas de inteligencia artificial generan, repiten y validan falsedades», dijo NewsGuard. La compañía dijo que no calificó a cada chatbot por la cantidad de desinformación que impulsó, ya que el problema era «generalizado en toda la industria de la IA en lugar de ser específico de un determinado modelo de lenguaje grande». Los hallazgos llegan en un momento en que las personas han comenzado a confiar en fuentes como personas influyentes en las redes sociales y chatbots de inteligencia artificial para obtener información rápida y personalizada. La desinformación sobre IA ha estado muy extendida este año electoral, ya que los malos actores utilizan la tecnología como arma para generar videos y audio deepfakes para difundir información errónea (ver: Los hackeos de APT y las filtraciones alteradas por IA representan las mayores amenazas electorales). Las empresas de redes sociales y los gigantes de la inteligencia artificial se han comprometido a frenar el uso indebido de la tecnología para propagar información falsa que podría influir en las elecciones. OpenAI descubrió recientemente que los actores de amenazas que llevaban a cabo campañas de influencia encubiertas también dependían de chatbots de IA. URL de la publicación original: https://www.databreachtoday.com/popular-chatbots-spout-russian-misinformation-finds-study-a-25568