Australia pronto establecerá un grupo asesor de expertos para evaluar y desarrollar opciones para “medidas de seguridad obligatorias” en la investigación y el desarrollo de la IA, anunció el miércoles el Ministro de Industria y Ciencia, Ed Husic. «Configuraciones de riesgo, ya sea a través de cambios en las leyes existentes o la creación de nuevas leyes específicas de IA», decía el comunicado de prensa que anuncia el desarrollo. Incluso mientras evalúa medidas para controlar el desarrollo, Australia estaría trabajando con la industria para desarrollar un programa voluntario. Estándar de seguridad de IA y opciones para etiquetado voluntario y marcas de agua de materiales generados por IA para garantizar una mayor transparencia. Las barreras de seguridad obligatorias incluirán requisitos relacionados con pruebas para garantizar la seguridad de los productos antes y después de su lanzamiento. Además, el gobierno australiano dijo que está interesado en garantizar la responsabilidad, que puede incluir capacitación tanto para los desarrolladores como para los implementadores de sistemas de IA, certificaciones y expectativas de responsabilidad claramente definidas para las organizaciones que desarrollan e implementan sistemas de IA. Australia también publicó su informe provisional. respuesta al documento de consulta sobre IA segura y responsable en Australia. El país ahora ve la necesidad de ir más allá de las restricciones voluntarias al desarrollo de la IA, ya que plantea riesgos de sesgos, errores y transparencia limitada. En el presupuesto del año pasado, en mayo de 2023, el gobierno australiano anunció una inversión de 101,2 millones de dólares para apoyar a las empresas. utilizar cuántica e inteligencia artificial en sus operaciones. Impulso global para las regulaciones de IA Varios países están trabajando para desarrollar políticas que aprovechen la tecnología de IA y al mismo tiempo mitiguen los riesgos asociados con ella. Recientemente, la UE se convirtió en la primera región en introducir un conjunto integral de leyes para garantizar que la tecnología se utilice para el beneficio económico y social de la gente. Además de la UE, el Reino Unido, los EE. UU. y China también están trabajando en regulaciones para gestionar mejor la tecnología. Alrededor de 28 países, incluida Australia, firmaron recientemente la Declaración de Bletchley para establecer oportunidades y riesgos comunes que plantea la IA. La regulación de la IA también es un tema de discusión en el actual Foro Económico Mundial en Davos, Suiza. Australia está interesada en que sus regulaciones de IA estén en sintonía con el enfoque adoptado por otros países. «Como economía relativamente pequeña y abierta, la armonización internacional del marco de gobernanza de Australia será importante ya que, en última instancia, afecta la capacidad de Australia para aprovechar los sistemas habilitados para IA suministrados a escala global y fomentar el crecimiento de la IA en Australia», dijo la discusión. artículo, IA segura y responsable en Australia, publicado por el gobierno australiano el año pasado. A medida que la adopción de la IA se acelera, los países están tratando de elaborar regulaciones rápidamente para gestionar y regular mejor el impacto de la tecnología. Se sabe que la IA mejora la productividad y la eficiencia operativa de las empresas, pero también puede provocar pérdidas de empleo, desinformación y ataques cibernéticos si la utilizan elementos maliciosos. Copyright © 2024 IDG Communications, Inc.

Source link