Todo lo que necesitas saber sobre tecnología

Etiqueta: emea

Reino Unido y EE. UU. acuerdan colaborar en el desarrollo de pruebas de seguridad para modelos de IA

El gobierno del Reino Unido acordó formalmente trabajar con Estados Unidos en el desarrollo de pruebas para modelos avanzados de inteligencia artificial. El 1 de abril de 2024, la Secretaria de Tecnología del Reino Unido, Michelle Donelan, y la Secretaria de Comercio de los Estados Unidos, Gina Raimondo, firmaron un Memorando de Entendimiento, que es un acuerdo no vinculante legalmente (Figura A). Figura A La secretaria de Comercio de Estados Unidos, Gina Raimondo (izquierda), y la secretaria de Tecnología del Reino Unido, Michelle Donelan (derecha). Fuente: Gobierno del Reino Unido. Imagen: Gobierno del Reino Unido Ambos países ahora “alinearán sus enfoques científicos” y trabajarán juntos para “acelerar e iterar rápidamente conjuntos sólidos de evaluaciones para modelos, sistemas y agentes de IA”. Esta medida se está tomando para mantener los compromisos establecidos en la primera Cumbre mundial sobre seguridad de la IA en noviembre pasado, donde gobiernos de todo el mundo aceptaron su papel en las pruebas de seguridad de la próxima generación de modelos de IA. ¿Qué iniciativas de IA han acordado el Reino Unido y Estados Unidos? Con el MoU, el Reino Unido y los EE. UU. acordaron cómo construirán un enfoque común para las pruebas de seguridad de la IA y compartirán sus desarrollos entre sí. Específicamente, esto implicará: Desarrollar un proceso compartido para evaluar la seguridad de los modelos de IA. Realizar al menos un ejercicio de prueba conjunto sobre un modelo de acceso público. Colaborar en la investigación técnica de seguridad de la IA, tanto para avanzar en el conocimiento colectivo de los modelos de IA como para garantizar que las nuevas políticas estén alineadas. Intercambio de personal entre respectivos institutos. Compartir información sobre todas las actividades realizadas en los respectivos institutos. Trabajar con otros gobiernos en el desarrollo de estándares de IA, incluida la seguridad. «Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de inteligencia artificial, realizarán evaluaciones más sólidas y emitirán directrices más rigurosas», dijo el secretario Raimondo en un comunicado. VER: Aprenda a utilizar la IA para su negocio (Academia TechRepublic) El MoU se relaciona principalmente con el avance de los planes elaborados por los Institutos de Seguridad de IA en el Reino Unido y EE. UU. Las instalaciones de investigación del Reino Unido se lanzaron en la Cumbre de Seguridad de IA con los tres objetivos principales. de evaluar los sistemas de IA existentes, realizar investigaciones fundamentales sobre la seguridad de la IA y compartir información con otros actores nacionales e internacionales. Empresas como OpenAI, Meta y Microsoft han acordado que el AISI del Reino Unido revise de forma independiente sus últimos modelos de IA generativa. De manera similar, el AISI de EE. UU., establecido formalmente por el NIST en febrero de 2024, fue creado para trabajar en las acciones prioritarias descritas en la Orden Ejecutiva de AI emitida en octubre de 2023; Estas acciones incluyen el desarrollo de estándares para la seguridad de los sistemas de IA. El AISI de EE. UU. cuenta con el apoyo de un consorcio del AI Safety Institute, cuyos miembros son Meta, OpenAI, NVIDIA, Google, Amazon y Microsoft. ¿Conducirá esto a la regulación de las empresas de IA? Si bien ni el AISI del Reino Unido ni el de los EE. UU. son un organismo regulador, es probable que los resultados de su investigación combinada sirvan de base para futuros cambios de políticas. Según el gobierno del Reino Unido, su AISI «proporcionará conocimientos fundamentales para nuestro régimen de gobernanza», mientras que la instalación estadounidense «desarrollará directrices técnicas que serán utilizadas por los reguladores». Podría decirse que la Unión Europea todavía está un paso por delante, ya que su histórica Ley de IA se convirtió en ley el 13 de marzo de 2024. La legislación describe medidas diseñadas para garantizar que la IA se utilice de forma segura y ética, entre otras normas relativas a la IA para el reconocimiento facial y la transparencia. . VER: La mayoría de los profesionales de la ciberseguridad esperan que la IA afecte sus trabajos La mayoría de los grandes actores tecnológicos, incluidos OpenAI, Google, Microsoft y Anthropic, tienen su sede en EE. UU., donde actualmente no existen regulaciones estrictas que puedan restringir sus actividades de IA. La EO de octubre proporciona orientación sobre el uso y la regulación de la IA, y se han tomado medidas positivas desde su firma; sin embargo, esta legislación no es ley. El Marco de Gestión de Riesgos de IA finalizado por el NIST en enero de 2023 también es voluntario. De hecho, estas grandes empresas tecnológicas son en su mayoría responsables de regularse a sí mismas y el año pasado lanzaron el Foro Modelo Frontier para establecer sus propias “barandillas” para mitigar el riesgo de la IA. ¿Qué piensan la IA y los expertos legales sobre las pruebas de seguridad? La regulación de la IA debería ser una prioridad La formación del AISI del Reino Unido no fue una forma universalmente popular de controlar la IA en el país. En febrero, el director ejecutivo de Faculty AI, una empresa involucrada con el instituto, dijo que desarrollar estándares sólidos puede ser un uso más prudente de los recursos gubernamentales en lugar de intentar examinar cada modelo de IA. «Creo que es importante que establezca estándares para el resto del mundo, en lugar de intentar hacerlo todo por sí mismo», dijo Marc Warner a The Guardian. Más cobertura de IA de lectura obligada Los expertos en derecho tecnológico tienen un punto de vista similar cuando se trata del MoU de esta semana. «Idealmente, los esfuerzos de los países se gastarían mucho mejor en desarrollar regulaciones estrictas en lugar de investigación», dijo a TechRepublic en un correo electrónico Aron Solomon, analista legal y director de estrategia de la agencia de marketing legal Amplify. “Pero el problema es este: pocos legisladores (yo diría, especialmente en el Congreso de Estados Unidos) tienen un conocimiento tan profundo de la IA como para regularla. Solomon añadió: “Deberíamos salir en lugar de entrar en un período de estudio profundo necesario, en el que los legisladores realmente entiendan colectivamente cómo funciona la IA y cómo se utilizará en el futuro. Pero, como lo puso de relieve la reciente debacle estadounidense en la que los legisladores intentan prohibir TikTok, ellos, como grupo, no entienden la tecnología, por lo que no están bien posicionados para regularla de manera inteligente. “Esto nos deja en la situación difícil en la que nos encontramos hoy. La IA está evolucionando mucho más rápido de lo que los reguladores pueden regular. Pero aplazar la regulación en favor de cualquier otra cosa en este momento es retrasar lo inevitable”. De hecho, dado que las capacidades de los modelos de IA cambian y se expanden constantemente, las pruebas de seguridad realizadas por los dos institutos deberán hacer lo mismo. «Algunos malos actores pueden intentar eludir las pruebas o aplicar incorrectamente las capacidades de IA de doble uso», dijo a TechRepublic en un correo electrónico Christoph Cemper, director ejecutivo de la plataforma de gestión rápida AIPRM. El doble uso se refiere a tecnologías que pueden utilizarse tanto con fines pacíficos como hostiles. Cemper dijo: “Si bien las pruebas pueden señalar problemas de seguridad técnica, no reemplazan la necesidad de directrices sobre cuestiones éticas, políticas y de gobernanza… Idealmente, los dos gobiernos considerarán las pruebas como la fase inicial de un proceso colaborativo continuo”. VER: La IA generativa puede aumentar la amenaza global de ransomware, según un estudio del Centro Nacional de Seguridad Cibernética Se necesita investigación para una regulación eficaz de la IA Si bien las directrices voluntarias pueden no resultar suficientes para incitar un cambio real en las actividades de los gigantes tecnológicos, una legislación de línea dura podría sofocar Según el Dr. Kjell Carlsson, el progreso en IA si no se considera adecuadamente. El ex analista de ML/AI y actual jefe de estrategia de Domino Data Lab dijo a TechRepublic en un correo electrónico: “Hoy en día, hay áreas relacionadas con la IA donde el daño es una amenaza real y creciente. Se trata de áreas como el fraude y el cibercrimen, donde normalmente existe regulación pero es ineficaz. “Desafortunadamente, pocas de las regulaciones de IA propuestas, como la Ley de IA de la UE, están diseñadas para abordar eficazmente estas amenazas, ya que se centran principalmente en ofertas comerciales de IA que los delincuentes no utilizan. Como tal, muchos de estos esfuerzos regulatorios dañarán la innovación y aumentarán los costos, al tiempo que harán poco para mejorar la seguridad real”. Por lo tanto, muchos expertos piensan que priorizar la investigación y la colaboración es más eficaz que apresurarse con las regulaciones en el Reino Unido y los EE. UU. El Dr. Carlsson dijo: “La regulación funciona cuando se trata de prevenir daños establecidos en casos de uso conocidos. Hoy en día, sin embargo, la mayoría de los casos de uso de la IA aún no se han descubierto y casi todo el daño es hipotético. Por el contrario, existe una increíble necesidad de investigar cómo probar, mitigar el riesgo y garantizar la seguridad de los modelos de IA de forma eficaz. «Como tal, el establecimiento y la financiación de estos nuevos Institutos de Seguridad de IA y estos esfuerzos de colaboración internacional son una excelente inversión pública, no sólo para garantizar la seguridad, sino también para fomentar la competitividad de las empresas en los EE.UU. y el Reino Unido».

Source link

La nueva supercomputadora de inteligencia artificial del Reino Unido, valorada en £225 millones, se encuentra entre las más rápidas del mundo

La nueva supercomputadora de IA será la más rápida del Reino Unido cuando se lance en 2024 y aprovechará la inteligencia artificial para impulsar avances en ciencia de vanguardia. La supercomputadora Isambard-AI estará alojada en el Centro Nacional de Composites en Bristol, Reino Unido. Imagen: NCC El gobierno del Reino Unido está gastando £225 millones ($280 millones) en un intento por construir una de las supercomputadoras más rápidas del mundo, capaz de entregar más de 200 petaflops. – unos 200 billones de cálculos – cada segundo. Isambard-AI, que lleva el nombre del ingeniero británico pionero Isambard Kingdom Brunel, será 10 veces más rápido que el actual superordenador más rápido del Reino Unido, ARCHER2, y es una de las dos nuevas máquinas que se están construyendo para impulsar avances en robótica, análisis de datos, energía de fusión, atención sanitaria y investigación climática. Saltar a: Construyendo la supercomputadora más poderosa de Gran Bretaña Construida por Hewlett Packard Enterprise y alojada en la Universidad de Bristol, Isambard-AI comprenderá casi 5000 superchips NVIDIA GH200 Grace Hopper y contribuirá con 21 exaflops de rendimiento de IA a los investigadores cuando se inaugure en el National Composites de Bristol. Centro a mediados de 2024 (Figura A). Figura A Una maqueta de la supercomputadora Isambard-AI, que será la más rápida del Reino Unido cuando se lance en el verano de 2024. Imagen: HPE Más cobertura de IA de lectura obligada Simon McIntosh-Smith, profesor de la Universidad de Bristol y director del Isambard National Research Facility, dijo en un comunicado de prensa de HPE que Isambard-AI representaba “un gran salto adelante para el poder computacional de la IA” para el Reino Unido. «Hoy en día, Isambard-AI estaría entre las 10 supercomputadoras más rápidas del mundo y, cuando entre en funcionamiento a finales de 2024, será uno de los sistemas de IA para ciencia abierta más poderosos del mundo», dijo McIntosh-Smith en el comunicado de prensa. . Y añadió: «Es inmensamente emocionante estar a la vanguardia de la revolución de la IA y asociarnos con los líderes de la industria HPE y NVIDIA para construir e implementar rápidamente una infraestructura informática de investigación a gran escala para crear una de las supercomputadoras más poderosas del mundo». El Reino Unido se propone convertirse en el líder mundial en IA Isambard-AI se anunció por primera vez en septiembre de 2023 como parte de los planes del gobierno del Reino Unido para establecer un nuevo recurso de investigación de IA, o AIRR, para “impulsar la investigación y la innovación pioneras en IA en el Reino Unido”. y convertir al país en líder mundial en inteligencia artificial. La inyección de fondos para la nueva supercomputadora fue anunciada por el Departamento de Ciencia, Innovación y Tecnología del Reino Unido durante la Cumbre de Seguridad de IA de la semana pasada, donde también reveló planes para triplicar la inversión en AIRR de £100 millones (£124 millones) a £300 millones ( 372 millones de dólares). Isambard-AI se conectará a otra supercomputadora llamada Dawn, que está siendo construida por Dell, Intel y la consultora informática británica StackHPC en asociación con la Universidad de Cambridge, y que comenzará a funcionar en los próximos meses. Juntos, Isambard-AI y Dawn proporcionarán a investigadores y científicos «más de 30 veces la capacidad de las actuales herramientas informáticas públicas de IA del Reino Unido», según DIST. Apoyar la investigación del gobierno del Reino Unido sobre los riesgos y la seguridad de la IA. Las instalaciones de supercomputación de Bristol serán accesibles para una serie de organizaciones británicas con fines de investigación de la IA. Se dará acceso prioritario al Frontier AI Taskforce del gobierno del Reino Unido «para apoyar su trabajo para mitigar los riesgos planteados por las formas más avanzadas de IA, incluida la seguridad nacional frente al desarrollo de armas biológicas y ciberataques», como se indica en el comunicado de prensa del gobierno del Reino Unido. sobre Isambard-AI. La instalación también apoyará el trabajo realizado por el AI Safety Institute, el organismo gubernamental recientemente formado encargado de probar la seguridad y viabilidad de nuevos modelos de IA antes y después de su implementación para ayudar a informar la política gubernamental. ¿Qué tamaño tiene la industria de la IA en el Reino Unido? Según el gobierno del Reino Unido, en marzo de 2023, la inteligencia artificial ya aporta más de 3.700 millones de libras esterlinas (4.600 millones de dólares) a la economía del Reino Unido y emplea a más de 50.000 personas. Afirma que el país alberga el doble de empresas de inteligencia artificial que cualquier otra nación europea, y que «cientos más» se instalan en el Reino Unido cada año. Justin Hotard, vicepresidente ejecutivo y director general de HPC, IA y laboratorios de HPE, dijo en el comunicado de prensa de HPE que la reciente inversión del Reino Unido en supercomputación de IA subraya «su compromiso de tomar una posición de liderazgo global en IA». Hotard añadió: «El sistema Isambard-AI aprovechará la supercomputación líder en el mundo, incluidas las redes de alto rendimiento desarrolladas conjuntamente en los laboratorios de HPE en Bristol, para proporcionar el rendimiento y la escala necesarios para proyectos de IA con uso intensivo de computación». Y añadió: «Estamos orgullosos de asociarnos con el gobierno del Reino Unido y la Universidad de Bristol para brindar a los investigadores y a la industria del Reino Unido acceso al sistema de inteligencia artificial para ciencia abierta más grande de Europa». VER: Financiamiento inicial de IA del Reino Unido: el Instituto Alan Turing identifica una enorme disparidad de género Detalles técnicos sobre la supercomputadora Isambard-AI Isambard-AI se construirá utilizando el marco de supercomputación HPE Cray EX y contará con el marco de interconexión HPE Slingshot 11, que está diseñado para manejar el rendimiento masivo de datos necesario para simulaciones complejas y cargas de trabajo de IA. Cuando se active, se espera que la supercomputadora alcance más de 200 petaflops de rendimiento informático según el punto de referencia Top500 LINPACK, el estándar para medir la velocidad de procesamiento de un sistema informático. Esta potencia informática permitirá 21 exaflops de rendimiento de IA, siendo un exaflop una medida de quintillones de operaciones de punto flotante por segundo utilizadas para medir tareas computacionales especializadas de IA. En perspectiva, los últimos teléfonos inteligentes del mercado “sólo” son capaces de realizar billones de cálculos por segundo. La supercomputadora estará alojada en un centro de datos autónomo y refrigerado por sí mismo en NCC, con sede en Bristol & Bath Science Park. NCC es uno de los siete centros de investigación en todo el Reino Unido que forman High Value Manufacturing Catapult, que ofrece acceso a instalaciones y experiencia de investigación y desarrollo que de otro modo serían inaccesibles para las empresas del Reino Unido. Según NVIDIA, una segunda supercomputadora basada en Arm que llegará al NCC el próximo año, llamada Isambard 3, ofrecerá aproximadamente 2,7 petaflops de rendimiento informático y consumirá menos de 270 kilovatios de energía, lo que la ubicará «entre las tres supercomputadoras no aceleradas más ecológicas del mundo». .” Ian Buck, vicepresidente de hiperescala y HPC de NVIDIA, dijo en el comunicado de HPE: “Al construir una de las supercomputadoras de IA más rápidas del mundo, el Reino Unido está demostrando la importancia de que las naciones creen su propia infraestructura. Isambard-AI proporcionará a los investigadores los mismos recursos informáticos de IA y HPC de última generación utilizados por los principales pioneros de la IA del mundo, lo que permitirá al Reino Unido introducir la próxima ola de IA y avances científicos”.

Source link

Funciona con WordPress & Tema de Anders Norén