Como editores de IEEE Spectrum, nos enorgullecemos de detectar tecnologías prometedoras y seguirlas desde la fase de investigación hasta el desarrollo y, en última instancia, la implementación. En cada edición de enero, nos centramos en las tecnologías que ahora están preparadas para alcanzar hitos importantes en el nuevo año. Este número fue curado por el editor senior Samuel K. Moore, nuestro experto interno en semiconductores. Por eso no sorprende que haya incluido una historia sobre el plan de Intel para lanzar dos tecnologías de chips trascendentales en los próximos meses. Para “Intel espera superar a sus competidores”, Moore pidió a nuestra pasante editorial, Gwendolyn Rak, que informara sobre el riesgo que está asumiendo el gigante de los chips al introducir dos tecnologías a la vez. Comenzamos a rastrear la primera tecnología, los transistores nanosheet, en 2017. Cuando brindamos todos los detalles en un artículo destacado de 2019, estaba claro que este dispositivo estaba destinado a ser el sucesor del FinFET. Moore detectó por primera vez la segunda tecnología, la entrega de energía trasera, en la Reunión Internacional de Dispositivos Electrónicos del IEEE en 2019. Menos de dos años después, Intel se comprometió públicamente a incorporar la tecnología en 2024. Hablando de compromiso, los Proyectos de Investigación Avanzada de Defensa del ejército de EE. UU. La agencia ha desempeñado un papel enorme en la financiación de algunos de los avances fundamentales que aparecen en estas páginas. Muchos de nuestros lectores estarán familiarizados con los robots que el editor senior Evan Ackerman cubrió durante el desafío humanoide de DARPA hace casi 10 años. Esos robots eran esencialmente proyectos de investigación, pero, como informa Ackerman en “El año del humanoide”, algunas empresas iniciarán proyectos piloto en 2024 para ver si esta generación de humanoides está lista para arremangarse metafóricamente y ponerse manos a la obra. Más recientemente, el cifrado totalmente homomórfico (FHE) ha irrumpido en escena. Moore, que ha estado cubriendo la explosión cámbrica en arquitecturas de chips para IA y otras modalidades informáticas alternativas desde mediados de la adolescencia, señala que, al igual que el desafío de la robótica, DARPA fue el impulsor inicial. «Uno esperaría que las tres empresas financiadas por DARPA crearan un chip, aunque no había garantía de que lo comercializarían», dice Moore, quien escribió «Están llegando chips para computar con datos cifrados». «Pero lo que no se esperaría es que tres nuevas empresas más, independientemente de DARPA, lancen sus propios chips FHE al mismo tiempo». La historia del editor senior Tekla S. Perry sobre los OLED fosforescentes, “Un cambio detrás de las pantallas para OLED”, es en realidad un corte profundo para nosotros. Uno de los primeros artículos que Moore editó en Spectrum allá por el año 2000 fue el artículo de Stephen Forrest sobre electrónica orgánica. Su laboratorio desarrolló los primeros materiales OLED fosforescentes, que son mucho más eficientes que los fluorescentes. Forrest fue uno de los fundadores de Universal Display Corp., que ahora, después de más de dos décadas, finalmente ha comercializado el último de su trío de colores fosforescentes: el azul. Luego está nuestro artículo de portada sobre los deepfakes y su impacto potencial en docenas de elecciones nacionales a finales de este año. Hemos estado siguiendo el aumento de los deepfakes desde mediados de 2018, cuando publicamos una historia sobre investigadores de inteligencia artificial que apostaban sobre si un video deepfake sobre un candidato político recibiría más de 2 millones de visitas durante las elecciones intermedias de EE. UU. de ese año. Como informa la editora senior Eliza Strickland en “Este año electoral, busque credenciales de contenido”, varias empresas y grupos industriales están trabajando arduamente para garantizar que los deepfakes no destruyan la democracia. Mis mejores deseos para un año nuevo próspero y saludable, y disfrute de las previsiones tecnológicas de este año. Han pasado años preparándolo. Este artículo aparece en la edición impresa de enero de 2024.
Source link
Etiqueta: inteligencia
La prueba pública líder de manzanas con manzanas sobre la capacidad de los sistemas informáticos para entrenar redes neuronales de aprendizaje automático ha entrado de lleno en la era de la IA generativa. A principios de este año, MLPerf agregó una prueba para entrenar modelos de lenguaje grandes (LLM), GPT-3 en particular. Este mes agrega Stable Diffusion, un generador de texto a imagen. Las computadoras con tecnología Intel y Nvidia tomaron el nuevo punto de referencia. Y los rivales continuaron su batalla anterior en el entrenamiento de GPT-3, donde Google se unió a ellos. Los tres dedicaron enormes sistemas a la tarea (la supercomputadora de 10.000 GPU de Nvidia fue la más grande jamás probada) y ese tamaño es necesario en la IA generativa. Incluso el sistema más grande de Nvidia habría necesitado ocho días de trabajo para completar completamente su trabajo de LLM. En total, 19 empresas e instituciones presentaron más de 200 resultados, lo que mostró un aumento de rendimiento de 2,8 veces en los últimos cinco meses y un aumento de 49 veces. desde que MLPerf comenzó hace cinco años. Nvidia y Microsoft prueban monstruos de 10,752 GPU. Nvidia continuó dominando las pruebas de MLPerf con sistemas fabricados con sus GPU H100. Pero la guinda del pastel fueron los resultados de Eos, la nueva supercomputadora de IA de 10.752 GPU de la compañía. Al doblar todas esas GPU para la tarea del punto de referencia de entrenamiento GPT-3, Eos hizo el trabajo en poco menos de 4 minutos. La división de computación en la nube de Microsoft, Azure, probó un sistema exactamente del mismo tamaño y quedó detrás de Eos por apenas unos segundos. (Azure impulsa el asistente de codificación CoPilot de GitHub y ChatGPT de OpenAI). Las GPU de Eos son capaces de realizar un total de 42,6 mil millones de billones de operaciones de punto flotante por segundo (exaflops). Y están unidos mediante interconexiones (Quantum-2 Infiniband de Nvidia) que transportan 1,1 millones de billones de bytes por segundo. «Algunas de estas velocidades y transmisiones son alucinantes», dice Dave Salvatore, director de evaluación comparativa de IA y computación en la nube de Nvidia. “Esta es una máquina increíblemente capaz”. Eos triplica la cantidad de GPU H100 que se han integrado en una sola máquina. Ese aumento de tres veces supuso una mejora del rendimiento de 2,8 veces, o una eficiencia de escalado del 93 por ciento. El escalado eficiente es clave para la mejora continua de la IA generativa, que se ha multiplicado por diez cada año. El punto de referencia GPT-3 que abordó Eos no es una capacitación completa de GPT-3, porque MLPerf quería que estuviera al alcance de muchas empresas. En cambio, implica entrenar el sistema hasta un cierto punto de control que demuestre que el entrenamiento habría alcanzado la precisión necesaria con el tiempo suficiente. Y estas capacitaciones toman tiempo. Extrapolando los 4 minutos de Eos significa que se necesitarían 8 días para completar el entrenamiento, y eso es en lo que podría ser la supercomputadora de IA más poderosa construida hasta ahora. Una computadora de tamaño más razonable (512 H100) tomaría 4 meses. Intel continúa cerrando en Intel presentó resultados para sistemas que utilizan el chip acelerador Gaudi 2 y para aquellos que no tenían ningún acelerador, confiando únicamente en su CPU Xeon de cuarta generación. El gran cambio con respecto al último conjunto de puntos de referencia de capacitación fue que la compañía había habilitado las capacidades de punto flotante de 8 bits (FP8) de Gaudi 2. El uso de números de menor precisión, como FP8, ha sido responsable de la mayor parte de la mejora en el rendimiento de la GPU en los últimos 10 años. El uso de FP8 en partes de GPT-3 y otras redes neuronales de transformadores donde su baja precisión no afectará la precisión ya ha mostrado su valor en los resultados H100 de Nvidia. Ahora Gaudi 2 está viendo el impulso. “Proyectamos una ganancia del 90 por ciento” al encender el FP8, dice Eitan Medina, director de operaciones de Intel Habana Labs. «Hemos entregado más de lo prometido: una reducción del 103 por ciento en el tiempo de entrenamiento para un grupo de 384 aceleradores». Ese nuevo resultado coloca al sistema Gaudi 2 a poco menos de un tercio de la velocidad de un sistema Nvidia en un por chip y tres veces más rápido que el TPUv5e de Google. En el punto de referencia de nueva generación de imágenes, Gaudi 2 también tenía aproximadamente la mitad de velocidad que el H100. GPT-3 fue el único punto de referencia que FP8 se habilitó para esta ronda, pero Medina dice que su equipo está trabajando para activarlo para otros ahora. Medina continuó argumentando que Gaudi 2 tiene un precio significativamente más bajo que el H100, por lo que tiene una ventaja en una métrica combinada de precio y rendimiento. Medina espera que la ventaja aumente con la próxima generación del chip acelerador Intel, Gaudi 3. Ese chip se producirá en volumen en 2024 y se construirá utilizando el mismo proceso de fabricación de semiconductores que la Nvidia H100. Por otra parte, Intel presentó resultados para sistemas basados en sólo en CPU. Nuevamente, se muestran tiempos de entrenamiento de entre minutos y horas para varios puntos de referencia. Más allá de los puntos de referencia MLPerf, Intel también compartió algunos datos que muestran que un sistema Xeon de 4 nodos, cuyos chips incluyen el motor de matriz AMX, puede ajustar la difusión estable del generador de imágenes en menos de cinco minutos. El ajuste fino toma una red neuronal ya entrenada y la especializa en una tarea determinada. Por ejemplo, la IA del diseño de chips de Nvidia es un ajuste fino de un modelo de lenguaje grande existente llamado NeMo. Puede ver todos los resultados aquí. De los artículos de su sitio Artículos relacionados en la Web
Source link
La plataforma Private AI de VMware incluirá interoperabilidad con Intel, Watsonx de IBM y Kyndryl. Imagen: Adobe Stock/CrazyCloud La empresa de computación en la nube VMware lanzó nuevos servicios de nube, inteligencia artificial, borde y datos en VMware Explore Barcelona 2023 el 7 de noviembre. Los nuevos servicios privados de inteligencia artificial y nube soberana reflejan la mayor adopción de productos de inteligencia artificial. El sitio de VMware tiene detalles sobre la disponibilidad internacional de las plataformas y servicios de la compañía Saltar a: Socios privados de plataformas de IA con Intel, IBM y Kyndryl Las organizaciones han comenzado a considerar las posibilidades de la IA privada, que brinda capacidades de IA generativa a la empresa sin exponer datos confidenciales. o información protegida por derechos de autor al mundo exterior. VER: Databricks adquirió MosaicML en junio para agregar su “fábrica” de modelos privados de IA. (TechRepublic) «Realmente creemos que la IA privada se convertirá en la arquitectura predeterminada para habilitar la IA generativa en la empresa», dijo Chris Wolf, vicepresidente de VMware AI Labs, en una sesión informativa previa para los medios el 2 de noviembre. VMware está lanzando su propia plataforma Private AI con tres opciones de socios: Intel, Watsonx de IBM o Kyndryl. Los clientes a menudo están preocupados por la capacidad de CPU y GPU, y VMware ofrece la capacidad de escalar de manera inteligente el acceso a la computación cuando los clientes la necesitan para evitar sobrecostos, dijo Wolf. VMware Private AI con procesadores Intel y aceleradores de hardware se puede combinar con VMware Cloud Foundation (Figura A). Figura A La variedad de anuncios de VMware realizados el 7 de noviembre, incluida Private AI, se muestran aquí en una pila que se cruza. Imagen: VMware VMware Private AI lleva IBM watsonx a entornos locales utilizando una arquitectura de pila completa construida sobre VMware Cloud Foundation y Red Hat OpenShift. Kyndryl ofrece nuevos servicios para VMware Private AI, específicamente un marco, herramientas de software e integraciones listas para usar para crear aplicaciones de aprendizaje automático o IA generativa. Recuperación de ransomware mejorada VMware Live Recovery, que estará disponible en el cuarto trimestre del año fiscal 24, es un servicio próximo que proporciona gestión unificada de ransomware y recuperación ante desastres en las nubes públicas y locales. VMware Cloud Foundation 5.1 anunció Más cobertura de seguridad en la nube La versión 5.1 del servicio de infraestructura VMware Cloud Foundation agregará almacenamiento ampliado y nuevos servicios de nube soberanos. Agrega capacidad de GPU 2X, aumento de rendimiento de almacenamiento 4x con 16 GPU virtuales por máquina virtual y aplicación de políticas y servidores privados virtuales de autoservicio, reveló Prashanth Shenoy, vicepresidente de marketing del grupo empresarial de infraestructura de nube de VMware, en la sesión informativa previa. Se espera que las actualizaciones de VMware Cloud Foundation se publiquen en el cuarto trimestre de 2024. VMware Cloud Data Services Manager se ampliará a AlloyDB Omni de Google, que es apropiado para cargas de trabajo y análisis de IA/ML, y MiniO Object Store. Ambos están ahora en Tech Preview. VMware también está agregando ReadyNodes de OEM a VMware vSAN Max Momentum. Agregar servicios de datos a las nubes soberanas Otro avance en la nube de VMware se relaciona con los crecientes llamados a la soberanía de los datos en industrias altamente reguladas en la Unión Europea. VMware está ampliando los servicios de datos administrados para proveedores de servicios de comunicaciones, llevando servicios de datos a la red existente de nubes soberanas de VMware (Figura B). MongoDB, Kafka, Greenplum y NetApp StorageGRID llegan a VMware Cloud Foundation en un formato administrado de autoservicio para nubes soberanas para agregar agilidad y desarrollar aplicaciones más rápido. Figura B Una ilustración de las cualidades de una nube soberana. Imagen: VMware Tanzu Mission Control ahora estará disponible para la gestión de contenedores como una variante con espacio de aire para servicios soberanos. VMware permitirá a los clientes aportar sus propias claves de cifrado a los servicios de seguridad soberanos. VMware también está trabajando con nuevos socios en esta área: NetApp, que ofrece StorageGRID Object Storage, y Thales, que ofrece la solución de seguridad de datos CipherTrust y funciones de «traiga su propia clave». Más de 50 proveedores de servicios en la nube, principalmente en Europa y Asia, ahora forman parte del programa VMware Cloud Verified. VER: Grandes organizaciones añaden controles de soberanía para cumplir con regulaciones como GDPR. (TechRepublic) Actualizaciones para la entrega de aplicaciones Tanzu Tanzu, el servicio de entrega de aplicaciones de VMware, está recibiendo nuevos servicios, incluida una nueva pestaña de IA en Tanzu Application Platform y Tanzu Application Service. Un plano de control de datos multinube dentro de Tanzu Tech Hub ahora está disponible en Tech Preview para VMware Tanzu Data Services. Las siguientes mejoras llegarán a VMware Tanzu Intelligence Services: GreenOps (beta) y costos profundos de K8 en CloudHealth. Visibilidad de gobernanza ampliada en Guardrails. Información basada en ML e integración de Hub. Intelligent Assist, una IA conversacional para consultas y búsquedas, en Hub. Transformación de aplicaciones multinube en Transformer. Mejoras de seguridad del catálogo de aplicaciones. Las actualizaciones de Tanzu Data Services a partir del 7 de noviembre incluyen un paquete simplificado de todas las ofertas de datos de VMware, además de un nuevo VMware Tanzu Data Hub (actualmente en versión preliminar técnica) para gestión de flotas y servicios de datos del ecosistema. Se aplican actualizaciones adicionales a Spring, el marco de desarrollo Java de código abierto desarrollado por VMware. Spring 6.1 incluye una evaluación de salud de Spring, consultoría de Spring y Spring Boot 3.2 gratuitos. Esta actualización se lanzó el 7 de noviembre. “Al conmemorar el vigésimo aniversario de la primavera de este año, nuestras últimas mejoras al marco y su profunda integración con la plataforma Tanzu brindan a los equipos de aplicaciones la capacidad de aprovechar más tecnología de vanguardia, como la inteligencia artificial, en nuevos aplicaciones y llevarlas a producción de forma más rápida, segura y segura”, afirmó Purnima Padmanabhan, vicepresidente senior y director general del grupo empresarial de gestión y aplicaciones modernas, VMware, en un comunicado de prensa. Cambios en los productos perimetrales Cuatro anuncios revelan cambios en los productos perimetrales de VMware. VMware Edge Cloud Orchestrator ayudará a coordinar una mejor visibilidad para las cargas de trabajo perimetrales. Intelligent Assist para VMware Software-Defined Edge simplificará las experiencias operativas para los clientes de SASE y ahora incluye Microsoft Security Copilot. Aún no se ha anunciado una fecha de lanzamiento. Un nuevo centro de flujo de trabajo para VMware Telco Cloud Automation respaldará la proliferación de sitios celulares OpenRAN. Estará disponible el 7 de noviembre. Unifica el ecosistema de borde definido por software de VMware y agrega integración con Symantec para mayor seguridad. Se espera que esto ocurra en el cuarto trimestre de 2023. Para los equipos de TI que administran empleados que usan macOS, VMware introdujo nuevas capacidades de administración de Mac en VMware End User Computing. Por ejemplo, Hub Health en Workspace ONE Intelligent Hub y Workspace ONE UEM identificarán automáticamente las tendencias de estado del dispositivo macOS.
La nueva supercomputadora de IA será la más rápida del Reino Unido cuando se lance en 2024 y aprovechará la inteligencia artificial para impulsar avances en ciencia de vanguardia. La supercomputadora Isambard-AI estará alojada en el Centro Nacional de Composites en Bristol, Reino Unido. Imagen: NCC El gobierno del Reino Unido está gastando £225 millones ($280 millones) en un intento por construir una de las supercomputadoras más rápidas del mundo, capaz de entregar más de 200 petaflops. – unos 200 billones de cálculos – cada segundo. Isambard-AI, que lleva el nombre del ingeniero británico pionero Isambard Kingdom Brunel, será 10 veces más rápido que el actual superordenador más rápido del Reino Unido, ARCHER2, y es una de las dos nuevas máquinas que se están construyendo para impulsar avances en robótica, análisis de datos, energía de fusión, atención sanitaria y investigación climática. Saltar a: Construyendo la supercomputadora más poderosa de Gran Bretaña Construida por Hewlett Packard Enterprise y alojada en la Universidad de Bristol, Isambard-AI comprenderá casi 5000 superchips NVIDIA GH200 Grace Hopper y contribuirá con 21 exaflops de rendimiento de IA a los investigadores cuando se inaugure en el National Composites de Bristol. Centro a mediados de 2024 (Figura A). Figura A Una maqueta de la supercomputadora Isambard-AI, que será la más rápida del Reino Unido cuando se lance en el verano de 2024. Imagen: HPE Más cobertura de IA de lectura obligada Simon McIntosh-Smith, profesor de la Universidad de Bristol y director del Isambard National Research Facility, dijo en un comunicado de prensa de HPE que Isambard-AI representaba “un gran salto adelante para el poder computacional de la IA” para el Reino Unido. «Hoy en día, Isambard-AI estaría entre las 10 supercomputadoras más rápidas del mundo y, cuando entre en funcionamiento a finales de 2024, será uno de los sistemas de IA para ciencia abierta más poderosos del mundo», dijo McIntosh-Smith en el comunicado de prensa. . Y añadió: «Es inmensamente emocionante estar a la vanguardia de la revolución de la IA y asociarnos con los líderes de la industria HPE y NVIDIA para construir e implementar rápidamente una infraestructura informática de investigación a gran escala para crear una de las supercomputadoras más poderosas del mundo». El Reino Unido se propone convertirse en el líder mundial en IA Isambard-AI se anunció por primera vez en septiembre de 2023 como parte de los planes del gobierno del Reino Unido para establecer un nuevo recurso de investigación de IA, o AIRR, para “impulsar la investigación y la innovación pioneras en IA en el Reino Unido”. y convertir al país en líder mundial en inteligencia artificial. La inyección de fondos para la nueva supercomputadora fue anunciada por el Departamento de Ciencia, Innovación y Tecnología del Reino Unido durante la Cumbre de Seguridad de IA de la semana pasada, donde también reveló planes para triplicar la inversión en AIRR de £100 millones (£124 millones) a £300 millones ( 372 millones de dólares). Isambard-AI se conectará a otra supercomputadora llamada Dawn, que está siendo construida por Dell, Intel y la consultora informática británica StackHPC en asociación con la Universidad de Cambridge, y que comenzará a funcionar en los próximos meses. Juntos, Isambard-AI y Dawn proporcionarán a investigadores y científicos «más de 30 veces la capacidad de las actuales herramientas informáticas públicas de IA del Reino Unido», según DIST. Apoyar la investigación del gobierno del Reino Unido sobre los riesgos y la seguridad de la IA. Las instalaciones de supercomputación de Bristol serán accesibles para una serie de organizaciones británicas con fines de investigación de la IA. Se dará acceso prioritario al Frontier AI Taskforce del gobierno del Reino Unido «para apoyar su trabajo para mitigar los riesgos planteados por las formas más avanzadas de IA, incluida la seguridad nacional frente al desarrollo de armas biológicas y ciberataques», como se indica en el comunicado de prensa del gobierno del Reino Unido. sobre Isambard-AI. La instalación también apoyará el trabajo realizado por el AI Safety Institute, el organismo gubernamental recientemente formado encargado de probar la seguridad y viabilidad de nuevos modelos de IA antes y después de su implementación para ayudar a informar la política gubernamental. ¿Qué tamaño tiene la industria de la IA en el Reino Unido? Según el gobierno del Reino Unido, en marzo de 2023, la inteligencia artificial ya aporta más de 3.700 millones de libras esterlinas (4.600 millones de dólares) a la economía del Reino Unido y emplea a más de 50.000 personas. Afirma que el país alberga el doble de empresas de inteligencia artificial que cualquier otra nación europea, y que «cientos más» se instalan en el Reino Unido cada año. Justin Hotard, vicepresidente ejecutivo y director general de HPC, IA y laboratorios de HPE, dijo en el comunicado de prensa de HPE que la reciente inversión del Reino Unido en supercomputación de IA subraya «su compromiso de tomar una posición de liderazgo global en IA». Hotard añadió: «El sistema Isambard-AI aprovechará la supercomputación líder en el mundo, incluidas las redes de alto rendimiento desarrolladas conjuntamente en los laboratorios de HPE en Bristol, para proporcionar el rendimiento y la escala necesarios para proyectos de IA con uso intensivo de computación». Y añadió: «Estamos orgullosos de asociarnos con el gobierno del Reino Unido y la Universidad de Bristol para brindar a los investigadores y a la industria del Reino Unido acceso al sistema de inteligencia artificial para ciencia abierta más grande de Europa». VER: Financiamiento inicial de IA del Reino Unido: el Instituto Alan Turing identifica una enorme disparidad de género Detalles técnicos sobre la supercomputadora Isambard-AI Isambard-AI se construirá utilizando el marco de supercomputación HPE Cray EX y contará con el marco de interconexión HPE Slingshot 11, que está diseñado para manejar el rendimiento masivo de datos necesario para simulaciones complejas y cargas de trabajo de IA. Cuando se active, se espera que la supercomputadora alcance más de 200 petaflops de rendimiento informático según el punto de referencia Top500 LINPACK, el estándar para medir la velocidad de procesamiento de un sistema informático. Esta potencia informática permitirá 21 exaflops de rendimiento de IA, siendo un exaflop una medida de quintillones de operaciones de punto flotante por segundo utilizadas para medir tareas computacionales especializadas de IA. En perspectiva, los últimos teléfonos inteligentes del mercado “sólo” son capaces de realizar billones de cálculos por segundo. La supercomputadora estará alojada en un centro de datos autónomo y refrigerado por sí mismo en NCC, con sede en Bristol & Bath Science Park. NCC es uno de los siete centros de investigación en todo el Reino Unido que forman High Value Manufacturing Catapult, que ofrece acceso a instalaciones y experiencia de investigación y desarrollo que de otro modo serían inaccesibles para las empresas del Reino Unido. Según NVIDIA, una segunda supercomputadora basada en Arm que llegará al NCC el próximo año, llamada Isambard 3, ofrecerá aproximadamente 2,7 petaflops de rendimiento informático y consumirá menos de 270 kilovatios de energía, lo que la ubicará «entre las tres supercomputadoras no aceleradas más ecológicas del mundo». .” Ian Buck, vicepresidente de hiperescala y HPC de NVIDIA, dijo en el comunicado de HPE: “Al construir una de las supercomputadoras de IA más rápidas del mundo, el Reino Unido está demostrando la importancia de que las naciones creen su propia infraestructura. Isambard-AI proporcionará a los investigadores los mismos recursos informáticos de IA y HPC de última generación utilizados por los principales pioneros de la IA del mundo, lo que permitirá al Reino Unido introducir la próxima ola de IA y avances científicos”.