Un consorcio japonés que involucra Fujitsu Ltd está desarrollando una plataforma de verificación de hechos utilizando inteligencia artificial, buscando contrarrestar el tipo de información errónea en línea a menudo vista durante los desastres y alrededor de las elecciones. El grupo de nueve organizaciones, incluido el Instituto Nacional de Informática, NEC Corp e Instituciones Académicas, tiene como objetivo completar el sistema al final del año fiscal 2025. La IA analizará, recopilará datos de apoyo y evaluará la autenticidad de la información en línea. «Implica muchas verificaciones cuando desea determinar la verdad por su cuenta, pero el sistema podría ayudarnos a hacer juicios rápidos», dijo Dai Yamamoto, director senior de proyectos de Fujitsu. A fines de mayo, Yamamoto probó el sistema durante su desarrollo, ingresó a la declaración: «Un grupo de ladrones extranjeros fue a áreas golpeadas por terremoto inmediatamente después del terremoto de Noto», y pidiéndole que verifique. Unos segundos después, apareció un mensaje que juzga la declaración como «falso». El sistema respaldó su evaluación con un artículo periodístico, diciendo que encontró información que contradecía el reclamo. También concluyó que la confiabilidad de la organización de noticias que publicó el informe era «alta». El sistema, que utiliza un modelo de lenguaje grande especializado en la lucha contra la información falsa, se está desarrollando con 6 mil millones de yenes en fondos proporcionados por la nueva Organización de Desarrollo de Tecnología Industrial y Energía, una agencia gubernamental. El uso de la plataforma, incluso «Deepfakes», imágenes y videos con personas reales pero creadas por IA, puede detectarse ya que ve características que tienden a pasarse por alto, según los desarrolladores. La medida se produce a medida que crecen las preocupaciones sobre la difusión de la desinformación en línea y la información errónea, como los videos falsos de desastres y su impacto negativo en momentos de crisis. © Kyodo