El gobierno japonés está considerando introducir regulaciones legalmente vinculantes para los desarrolladores de sistemas de inteligencia artificial a gran escala para garantizar que implementen medidas para abordar la desinformación y otros riesgos, dijeron el lunes fuentes cercanas al asunto. Si bien anteriormente el gobierno se había inclinado por hacer que tales medidas fueran voluntarias, ha reconocido la necesidad de regulaciones penales, similares a las medidas tomadas por la Unión Europea y otros países, en medio de preocupaciones sobre el posible uso indebido de la IA. El gobierno planea convocar un consejo de expertos en IA para discutir el tema y está considerando incorporar las nuevas regulaciones en las directrices de política de gestión económica y fiscal que se compilarán alrededor de junio. Japón pronto publicará directrices que enumeran 10 principios, incluido el «centramiento humano» y el uso seguro de la IA. Según un borrador publicado el mes pasado por un equipo de proyecto del gobernante Partido Liberal Demócrata, las empresas que desarrollen tecnologías avanzadas, como el chatbot generativo de IA ChatGPT, serán designadas como «desarrolladores de modelos básicos de IA». Las empresas involucradas en el uso de IA en áreas de alto riesgo deberán realizar verificaciones de seguridad internas o externas y compartir evaluaciones de riesgos con el gobierno. También se solicitará a los desarrolladores designados por el gobierno que informen su estado de cumplimiento al gobierno o a agencias de terceros. En casos de incumplimiento, el gobierno podría solicitar informes o realizar inspecciones in situ, así como imponer multas y otras sanciones por violaciones. El Parlamento Europeo aprobó a principios de este mes la primera ley integral de inteligencia artificial del mundo, que se espera que entre en vigor a partir de 2026 e impondrá importantes multas por infracciones. © KYODO

Source link