Todo lo que necesitas saber sobre tecnología

Etiqueta: nvidia

Los mejores lugares para trabajar de Glassdoor en EE. UU. y el Reino Unido en 2024

La consultora de gestión Bain & Company es la empresa número uno para trabajar, seguida de NVIDIA, según la lista de los 100 mejores lugares para trabajar de Glassdoor en EE. UU. 2024. Esta es la decimosexta vez que Bain & Company aparece en la lista y la sexta vez que la compañía ocupa el primer lugar, según Glassdoor. Google, en el puesto 26, es la única otra empresa que figura en la lista todos los años. Bain & Company también ocupó el primer lugar en la lista de los 50 mejores lugares para trabajar del Reino Unido de Glassdoor en 2024. La 16ª edición anual de los premios Employees’ Choice Awards de Glassdoor se basa en los aportes de los empleados que voluntariamente brindan comentarios anónimos en Glassdoor al completar una revisión de la empresa sobre su trabajo, entorno laboral y empleador durante el año pasado. Los premios destacan a empleadores de EE. UU. y el Reino Unido en industrias que incluyen tecnología, finanzas, consultoría, biotecnología y productos farmacéuticos, y venta minorista. Los ganadores se clasifican según una escala de cinco puntos, siendo cinco la calificación más alta, dijo la compañía. Las 10 mejores empresas para trabajar en EE. UU. en 2024 Estas clasificaciones reconocen a los empleadores en EE. UU. con 1000 o más empleados. Bain & Company (calificación 4,8 sobre 5) NVIDIA (4,7) ServiceNow (4,6) MathWorks (4,6) Procore Technologies (4,6) In-N-Out Burger (4,6) VMware (4,5) Deltek (4,5) Empresas 2020 (4,5) Fidelity Inversiones (4.5) El economista principal de Glassdoor, Daniel Zhao, dijo a TechRepublic que todas las empresas de tecnología entre las 10 principales de este año se han clasificado en la lista en años anteriores, excepto Deltek, que es nueva en la lista en 2024. “NVIDIA se ha clasificado entre nuestras Mejores Lugares para Trabajar nueve veces, más que cualquier otra empresa de tecnología actualmente entre las 10 primeras”, dijo. Veintiséis empleadores son recién llegados a los 100 mejores lugares para trabajar 2024, incluidos Samsara (N° 29, 4.5), Lenovo (N° 77, 4.3) y Texas Children’s Hospital (N° 94, 4.3). Veintiocho empleadores ausentes de la lista de 2023 se reincorporarán en 2024, incluidos Apple (N° 39, 4.4), Nike (N° 96, 4.3), E. & J. Gallo Winery (N° 83, 4.3) y Marriott. Internacional (n° 80, 4.3). Las 5 mejores pequeñas y medianas empresas de EE. UU. para trabajar en 2024. Estas clasificaciones reconocen a los empleadores en EE. UU. con menos de 1000 empleados. Whatnot (calificación de 4,8 sobre 5) WebBank (4,8) Axios HQ (4,7) Events.com (4,7) Notion Labs (4,7) Entre los 50 mejores lugares para trabajar para pequeñas y medianas empresas en 2024, 39 empleadores son recién llegados, incluido Whatnot (número 1 , 4.8), Placer.ai (No. 27, 4.4) y YETI (No. 44, 4.4). Dos empleadores ausentes de la lista de 2023 se reincorporaron en 2024: NetWorth Realty (Nº 6, 4,7) y Venterra Realty (Nº 50, 4,3). Las 5 grandes empresas del Reino Unido para trabajar en 2024 Bain & Company (4,8) Mastercard (4,8) Vivienda 21 (4,7) Equal Experts (4,7) Netcompany (4,6) Puntos en común en las principales empresas y resultados sorprendentes Zhao le dijo a TechRepublic que, si bien todas las empresas es diferente, ven algunos puntos en común en las empresas nombradas Mejores Lugares para Trabajar en 2024. “Estos incluyen flexibilidad, transparencia y oportunidades de avance profesional. Los empleados de NVIDIA, ServiceNow y VMware, en particular, suelen comentar sobre los beneficios de la empresa, los productos innovadores y la sólida cultura empresarial”, afirmó. Una cosa que a Zhao le sorprendió fue la disminución de las empresas de tecnología en la lista de este año «y la ausencia de muchos actores tecnológicos importantes», en comparación con la lista del año pasado. “La tecnología tuvo un 2023 difícil, con despidos y los empleadores pidiendo pautas más estrictas para el regreso a la oficina, lo que le ha quitado algo de brillo (al trabajo en) la industria tecnológica”, explicó. Los empleados tienen la palabra Cuando los empleados envían reseñas a Glassdoor, se les pide que compartan sus opiniones, tanto positivas como negativas; También se les anima a proporcionar asesoramiento a la dirección. Además, se pide a los empleados que califiquen su grado de satisfacción con su empleador en general y que califiquen a su director general y los atributos clave del lugar de trabajo, incluidas las oportunidades profesionales, la remuneración y los beneficios, la cultura y los valores, la diversidad y la inclusión, la alta dirección y el equilibrio entre la vida personal y laboral, la dijo la empresa. Además, se pregunta a los empleados si recomendarían a su empleador a un amigo y si creen que las perspectivas comerciales de seis meses de su empleador son positivas o negativas, o si no tienen opinión. La investigación actual de Glassdoor encontró que el 79% de los empleados dijeron que están «bien» o «satisfechos» con sus trabajos y empresas. Este año, quienes buscan empleo buscan cada vez más seguridad y estabilidad en el empleo, observó Zhao. «Después de un año de temores de recesión y despidos», dijo, «los solicitantes de empleo buscan empresas que puedan ofrecer buenas oportunidades de crecimiento pero también estabilidad en caso de que la economía se desacelere aún más». Metodología Los ganadores del premio Employees’ Choice Award para los mejores lugares para trabajar 2024 se determinan utilizando el algoritmo de premios patentado de Glassdoor, y la calificación de cada empleador se determina en función de la cantidad, calidad y coherencia de las reseñas de empresas aprobadas por Glassdoor enviadas por empleados actuales y anteriores entre el 18 de octubre. de 2022 y 16 de octubre de 2023, según la empresa. Durante el período de elegibilidad de un año, los empleadores considerados para la lista grande deben haber recibido al menos 75 calificaciones. Los empleadores considerados para la lista pequeña y mediana deben haber recibido al menos 30 calificaciones para cada uno de los nueve atributos del lugar de trabajo (calificación general de la empresa, oportunidades profesionales, compensación y beneficios, cultura y valores, diversidad e inclusión, alta dirección, equilibrio entre la vida laboral y personal, recomendar a un amigo y perspectivas comerciales a seis meses). Y los empleadores considerados para la lista del Reino Unido deben haber recibido al menos 30 calificaciones para cada uno de los nueve atributos del lugar de trabajo y tener al menos 1.000 empleados al final del período de elegibilidad, según Glassdoor.

Source link

Las nuevas computadoras portátiles 2 en 1 de HP ofrecen funciones de inteligencia artificial

Hoy en CES 2024, HP anunció nuevas computadoras portátiles para uso profesional, de consumo y de juegos. La línea HP Spectre x360 de computadoras portátiles 2 en 1 para uso profesional o de consumo ahora viene con mejoras de inteligencia artificial y HP ha anunciado nuevos periféricos. Las funciones de inteligencia artificial de la línea Spectre x360 son en su mayoría cosméticas, como transcripción y pulido de videos para reuniones. HP también lanzó sus monitores Serie 5 en tamaños de 24, 27 y 32 pulgadas. Además, HP anunció la computadora portátil para juegos OMEN Transcend 14, con la afirmación de que es la computadora portátil para juegos “más genial y liviana” de su tamaño disponible en el mundo. HP presenta las computadoras portátiles Spectre x360 Las ofertas más recientes de HP aplicables al uso empresarial son la computadora portátil HP Spectre x360 2 en 1 en modelos de 14 pulgadas (Figura A) y 16 pulgadas. Ambas computadoras portátiles pueden usar una pantalla OLED de hasta 2.8K, incluyen cámaras de 9 MP para llamadas y tienen una NPU para procesar cargas de trabajo de IA. Figura A La computadora portátil HP Spectre x360 2 en 1 de 14 pulgadas en su configuración de computadora portátil. Se puede voltear para usarlo como tableta. Imagen: HP La línea de computadoras portátiles 2 en 1 HP Spectre x360 tiene procesadores Intel Core Ultra5 y puede incluir una GPU para computadora portátil NVIDIA GeForce RTX 4050 opcional. Windows Studio ajusta automáticamente las llamadas y los videos para realizar mejoras, como el encuadre automático y el desenfoque del fondo, que son manejados por la NPU. VER: Las nuevas computadoras portátiles XPS de Dell muestran una de las tendencias en CES 2024: botones dedicados para el asistente de inteligencia artificial generativa de Microsoft, Copilot para Windows. (TechRepublic) Más cobertura de IA de lectura obligada «Creemos que las mejores innovaciones son también las más personales», escribió Samuel Chang, vicepresidente senior y presidente de la división de soluciones de consumo de sistemas personales de HP Inc., en un comunicado de prensa. «Las nuevas tecnologías de HP ofrecen soluciones que nos permiten ser más personalizados que nunca, aprovechando innovaciones revolucionarias como la IA que alterarán la forma en que la tecnología nos hace avanzar». La línea Spectre x360 ya está disponible en HP.com o BestBuy.com. El modelo de 14 pulgadas comienza en $1,499.99, mientras que el modelo de 16 pulgadas comienza en $1,599.99. Los nuevos periféricos funcionan con la línea HP Spectre x360 Los siguientes periféricos se revelaron en CES junto con la línea de computadoras portátiles 2 en 1 HP Spectre x360: Auriculares inalámbricos con filtrado de ruido Poly Voyager Free 20. Disponible en mayo de 2024 por $149. Teclado inalámbrico dividido, ergonómico HP 960 con teclas programables. Se espera que este teclado esté disponible en abril en HP.com por $119. Ratón inalámbrico recargable HP 690 con carga Qi y botones programables. Disponible ahora en HP.com por $59,99. Teclado inalámbrico programable HP 430. Disponible ahora en HP.com por $49,99. HP USB-C Travel Hub G3, que agrega un puerto USB-C, dos puertos USB-A y un puerto HDMI. Disponible a finales de febrero en HP.com por $69,99. Teclado con cable retroiluminado HP 400. Disponible ahora en HP.com por $49,99. Los monitores HP Serie 5 ofrecen más espacio en pantalla HP anunció sus monitores Serie 5 en CES 2024, que ofrecen pantallas de 24, 27 y 32 pulgadas para personas que buscan pantallas más grandes. Los monitores HP Serie 5 se conectan a otros dispositivos a través de puertos HDMI; Además, estos monitores ofrecen una relación de contraste de 1500:1 y frecuencias de actualización de 100 Hz. Se espera que los monitores HP Serie 5 estén disponibles en la primavera de 2024. HP aún no ha publicado los precios. HP presenta la computadora portátil para juegos OMEN Transcend ultraligera de 14 pulgadas La computadora portátil para juegos OMEN Transcend de 14 pulgadas (Figura B) pesa solo 3,5 libras. Su pantalla OLED VRR de 2,8K y 120 Hz con certificación IMAX Enhanced es adecuada para juegos de alto rendimiento o para trabajos creativos como pintura digital y diseño gráfico. La versión de mayor rendimiento se ejecuta en un procesador Intel Core Ultra 9 185H y una GPU para computadora portátil NVIDIA GeForce RTX 4070. El enfriamiento se logra a través de una zona presurizada mediante una cámara de vapor para la disipación directa del calor a través de las rejillas de ventilación traseras. Figura B Computadora portátil para juegos OMEN Transcend de 14 pulgadas de HP. Imagen: HP Los procesadores Intel y NVIDIA permiten que la IA integrada ofrezca herramientas para el trabajo, como: transcripción en vivo y subtítulos en tiempo real durante las reuniones. Una función de grabación para transcribir audio. Notas generadas por IA. El modelo de computadora portátil para juegos OMEN Transcend de 14 pulgadas ya está disponible para pedidos por adelantado a partir de $ 1499,99. El modelo de 16 pulgadas con hasta los procesadores Intel más nuevos y hasta pantallas OLED estará disponible el 10 de enero a partir de $1,899.99. Competidores de las computadoras portátiles HP Spectre x360 y OMEN Transcend 14 La HP Spectre x360 compite directamente con la Dell XPS 13, la MacBook Pro, la Lenovo Flex 14 y la ASUS VivoBook Flip. El peso de las computadoras portátiles OMEN Transcend 14 las hace destacar. Se enfrentan cara a cara con otros portátiles para juegos como el ASUS ROG Zephyrus G14. Nota: TechRepublic cubre CES 2024 de forma remota.

Source link

Intel escinde la empresa de implementación de IA generativa empresarial Articul8

Intel y la firma de inversión global DigitalBridge Group han formado una empresa independiente de software de IA generativa, Articul8 AI, Inc. (Articul8); Intel anunció la nueva compañía el 3 de enero. Articul8 trabajará con Intel y brindará soluciones para organizaciones que deseen construir e implementar IA generativa. Producto y capacidades de Articul8 El producto de Articul8 es «una plataforma de software GenAI llave en mano que ofrece velocidad, seguridad y rentabilidad para ayudar a los clientes de grandes empresas a operacionalizar y escalar la IA», según el comunicado de prensa. Específicamente, Articul8 proporciona infraestructura, una capa de datos administrada, grandes modelos de lenguaje y API para IA generativa. Algunos casos de uso podrían ser: Implementar IA generativa para tareas de ciberseguridad, como la detección de amenazas. Obtener conocimientos sobre datos y generar diseños en ingeniería. Uso de datos de IA en la fabricación de semiconductores. Mejorar las operaciones de telecomunicaciones. Identificar tendencias del mercado y generar insights en finanzas. VER: Esto es lo que establece la Ley de IA de la UE para la industria de la IA generativa (TechRepublic) Más cobertura de IA de lectura obligada El software de Articul8 se ejecuta en procesadores Intel Xeon Scalable y aceleradores Intel Gaudi, pero también puede funcionar en otras infraestructuras. Para brindar flexibilidad a los usuarios empresariales, Articul8 puede trabajar con Intel, AWS, Google Cloud, Microsoft Azure y NVIDIA. Articul8 sigue los pasos de las tendencias actuales de IA empresarial al ofrecer implementación local y asegurarse de que sus capacidades de IA mantengan los datos de la empresa, los datos de los clientes, la capacitación y la inferencia dentro de un perímetro de seguridad empresarial. Está diseñado para organizaciones con altos niveles de seguridad y conocimiento de dominio especializado. Los orígenes de Articul8 Articul8 surgió de Intel y utiliza IP y tecnología desarrollada allí. El director ejecutivo de Articul8 es Arun Subramaniyan, quien anteriormente se desempeñó como vicepresidente y gerente general en el centro de datos y el grupo de inteligencia artificial de Intel. Las dos empresas trabajarán mano a mano y colaborarán mientras operan de forma independiente. Intel financió Articul8, al igual que DigitalBridge Ventures y otros inversores de riesgo. «Con su profundo conocimiento del dominio de IA y HPC y sus implementaciones de GenAI de nivel empresarial, Articul8 está bien posicionado para ofrecer resultados comerciales tangibles para Intel y nuestro ecosistema más amplio de clientes y socios», escribió el CEO de Intel, Pat Gelsinger, en el comunicado de prensa. «A medida que Intel acelera la IA en todas partes, esperamos continuar nuestra colaboración con Articul8». El proyecto que se convertiría en Articul8 ha estado incubando durante dos años en Intel y fue utilizado en Boston Consulting Group, dijo Rich Lesser, presidente global de Boston Consulting Group, en un comunicado de prensa. «Desde entonces, hemos implementado productos Articul8 para múltiples clientes que buscan plataformas listas para producción con un tiempo de comercialización rápido», dijo Lesser. «Estamos entusiasmados con la importante oportunidad que se presenta ante Articul8, que se ve reforzada por esta inversión para acelerar su crecimiento e innovación», dijo Subramaniyan en un correo electrónico a TechRepublic. «Articul8 tiene una importante oportunidad por delante y esta transacción permite a Intel continuar participando en cualquier actividad futura de creación de valor de Articul8». Competidores de Articul8 Otras empresas que trabajan en proporcionar capacidades de implementación y desarrollo de IA generativa completa para empresas incluyen Intel, IBM, HPE, AWS, Dell, Databricks y Google. A medida que más y más empresas buscan casos de uso para la IA generativa, más proveedores de IA de generación están trabajando en la creación de un servicio completo que ofrezca seguridad a nivel empresarial en lugar de los modelos y casos de uso más comerciales y capacitados públicamente.

Source link

Dell presenta nuevas computadoras portátiles XPS 13, 14 y 16

Dell mostró las próximas versiones de su línea de computadoras portátiles XPS el jueves antes de CES 2024, con tamaños nuevos y más grandes e integración de inteligencia artificial. Los nuevos Dell XPS 13, 14 y 16 vendrán con las teclas Windows Copilot de Microsoft para acceder fácilmente a las funciones de IA generativa. Saltar a: Detalles sobre las tres nuevas computadoras portátiles XPS de Dell Los nuevos modelos de computadoras portátiles XPS de Dell son sucesores del XPS 13 Plus del año pasado. El XPS 13 Plus pasó a llamarse XPS 13 y se agregaron a la línea modelos XPS 14 y 16 más grandes. Al igual que el XPS 13 Plus, los diseños de estas computadoras portátiles se centran en la suavidad y las superficies sensibles al tacto. La fila de funciones táctiles encima del teclado controla tanto los medios como las teclas de función, mientras que el panel táctil se integra suavemente con el resto del cuerpo gracias al vidrio sin costuras. La pantalla utiliza los modernos paneles InfinityEdge de Dell e incluye opciones táctiles OLED, frecuencias de actualización variables, opciones de alta resolución y Dolby Vision. VER: Dell ha estado trabajando en IA generativa de fácil acceso durante el último año, incluida la asociación con NVIDIA. (TechRepublic) El XPS 13 comienza en $1,299 en los EE. UU. y estará disponible pronto, dijo Dell. Es posible que eso signifique pronto entre febrero y finales de la primavera de 2024, porque es entonces cuando Microsoft dijo que varios socios lanzarán computadoras portátiles con el botón Windows para Copilot. La Dell XPS 16 es la nueva entrada de alta potencia en la línea de computadoras portátiles XPS. Ejecuta procesadores Intel Core Ultra y GPU NVIDIA GeForce RTX (hasta la GPU GeForce RTX 4050). El Dell XPS 16 es adecuado y evaluado oficialmente por NVIDIA para renderizado 3D, edición de video y transmisión en vivo, al igual que la línea Dell XPS 14. XPS 16 tendrá un precio inicial de $1,899 en los EE. UU. y estará disponible pronto. El Dell XPS 14 es un 21% más liviano que el XPS 16, según Dell, pero aún es valorado para edición, juegos y transmisión de alto rendimiento. La computadora portátil Dell XPS 14 tendrá un precio inicial de $1,699. Más cobertura de IA de lectura obligada Los nuevos modelos de computadoras portátiles cuentan con un motor de aceleración de IA Como lo hacen la mayoría de los fabricantes de dispositivos hoy en día, Dell está enfatizando que la IA generativa puede ejecutarse en sus computadoras portátiles, y en el dispositivo. La línea de portátiles XPS de Dell cuenta con un motor de aceleración de IA integrado con una unidad de procesamiento neuronal para tareas que incluyen la edición de fotografías. La nueva línea XPS se ejecuta en Windows 11, que viene con el asistente de IA generativa Copilot para Windows. Competidores de la línea de portátiles XPS de Dell El principal competidor de Dell de sus portátiles XPS es la línea MacBook Pro de Apple, que comparte algunos de los mismos tamaños y una apariencia elegante. HP, Lenovo, Microsoft y Acer ofrecen productos similares. Notas editoriales: Nos comunicamos con Dell para solicitar comentarios. Además, TechRepublic cubre CES 2024 de forma remota.

Source link

Nvidia presenta un nuevo chip para juegos específico de China

Nvidia, el fabricante de chips estadounidense, ha presentado una versión modificada de su chip para juegos avanzado. La compañía anunció este chip para alinearse con los controles de exportación de Estados Unidos dirigidos a China. Nvidia llama a este nuevo chip GeForce RTX 4090 D. Según la compañía, el nuevo chip es un salto revolucionario en rendimiento, eficiencia y gráficos impulsados ​​por IA. El portavoz de Nvidia ha afirmado que los clientes chinos tendrán acceso a este chip a partir de enero. El portavoz enfatizó que el desarrollo de la GeForce RTX 4090 D implicó una amplia colaboración con el gobierno de EE. UU. para garantizar el cumplimiento total de los controles de exportación. “La GeForce RTX 4090 D ha sido diseñada para cumplir plenamente con los controles de exportación del gobierno de EE. UU. Mientras desarrollábamos este producto, colaboramos ampliamente con el gobierno de EE. UU.”, afirmó el portavoz de Nvidia. Esto socava el cumplimiento del chip de los requisitos reglamentarios y su disponibilidad en el mercado chino en enero. El nuevo chip de Nvidia es el primer chip de la compañía específico para China. Nvidia ha presentado la GeForce RTX 4090 D, que es el primer chip específicamente para China. Esto se produce después de que la Administración Biden anunciara normas de exportación en octubre. La nueva norma bloqueó la venta de dos chips de IA modificados (A800 y H800) de Nvidia para China según las normas anteriores. Esto también afectó al chip de juegos de alta gama RTX 4090. Gizchina Noticias de la semana Según el boletín de la industria de chips SemiAnalysis, Nvidia podría presentar tres nuevos chips AI diseñados para el mercado chino alrededor del 16 de noviembre en respuesta a las reglas de exportación de octubre. Pero, según Reuters, Nvidia informó a sus clientes en China el mes pasado que pospondría el lanzamiento de uno de estos chips hasta el primer trimestre del próximo año. Nvidia aún no ha incluido los otros dos chips en su sitio web. Nvidia ha dominado más del 90% del mercado de chips de IA de China, valorado en 7.000 millones de dólares. Los analistas sugieren que las restricciones del gobierno estadounidense podrían abrir oportunidades para que empresas chinas como Huawei Technologies obtengan una posición más sólida en el mercado. El 11 de diciembre, el secretario de Comercio de Estados Unidos, Raimondo, declaró en una entrevista con Reuters que Nvidia puede vender chips de IA a China. Sin embargo, existen restricciones para aquellos con mayor poder de procesamiento. La Nvidia RTX 4090 D es más lenta pero más cara. El portavoz de Nvidia mencionó que la RTX 4090 D específica de China, en comparación con la RTX 4090 prohibida, es «un 5% más lenta en juegos y creación». El precio del RTX 4090 D centrado en China se fija en 12.999 yuanes (1.842 dólares). Es 350 yuanes (50 dólares) más caro que el segundo chip más avanzado de la serie de productos disponibles para los clientes chinos. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

Google, Intel y Nvidia luchan en la formación en IA generativa


La prueba pública líder de manzanas con manzanas sobre la capacidad de los sistemas informáticos para entrenar redes neuronales de aprendizaje automático ha entrado de lleno en la era de la IA generativa. A principios de este año, MLPerf agregó una prueba para entrenar modelos de lenguaje grandes (LLM), GPT-3 en particular. Este mes agrega Stable Diffusion, un generador de texto a imagen. Las computadoras con tecnología Intel y Nvidia tomaron el nuevo punto de referencia. Y los rivales continuaron su batalla anterior en el entrenamiento de GPT-3, donde Google se unió a ellos. Los tres dedicaron enormes sistemas a la tarea (la supercomputadora de 10.000 GPU de Nvidia fue la más grande jamás probada) y ese tamaño es necesario en la IA generativa. Incluso el sistema más grande de Nvidia habría necesitado ocho días de trabajo para completar completamente su trabajo de LLM. En total, 19 empresas e instituciones presentaron más de 200 resultados, lo que mostró un aumento de rendimiento de 2,8 veces en los últimos cinco meses y un aumento de 49 veces. desde que MLPerf comenzó hace cinco años. Nvidia y Microsoft prueban monstruos de 10,752 GPU. Nvidia continuó dominando las pruebas de MLPerf con sistemas fabricados con sus GPU H100. Pero la guinda del pastel fueron los resultados de Eos, la nueva supercomputadora de IA de 10.752 GPU de la compañía. Al doblar todas esas GPU para la tarea del punto de referencia de entrenamiento GPT-3, Eos hizo el trabajo en poco menos de 4 minutos. La división de computación en la nube de Microsoft, Azure, probó un sistema exactamente del mismo tamaño y quedó detrás de Eos por apenas unos segundos. (Azure impulsa el asistente de codificación CoPilot de GitHub y ChatGPT de OpenAI). Las GPU de Eos son capaces de realizar un total de 42,6 mil millones de billones de operaciones de punto flotante por segundo (exaflops). Y están unidos mediante interconexiones (Quantum-2 Infiniband de Nvidia) que transportan 1,1 millones de billones de bytes por segundo. «Algunas de estas velocidades y transmisiones son alucinantes», dice Dave Salvatore, director de evaluación comparativa de IA y computación en la nube de Nvidia. “Esta es una máquina increíblemente capaz”. Eos triplica la cantidad de GPU H100 que se han integrado en una sola máquina. Ese aumento de tres veces supuso una mejora del rendimiento de 2,8 veces, o una eficiencia de escalado del 93 por ciento. El escalado eficiente es clave para la mejora continua de la IA generativa, que se ha multiplicado por diez cada año. El punto de referencia GPT-3 que abordó Eos no es una capacitación completa de GPT-3, porque MLPerf quería que estuviera al alcance de muchas empresas. En cambio, implica entrenar el sistema hasta un cierto punto de control que demuestre que el entrenamiento habría alcanzado la precisión necesaria con el tiempo suficiente. Y estas capacitaciones toman tiempo. Extrapolando los 4 minutos de Eos significa que se necesitarían 8 días para completar el entrenamiento, y eso es en lo que podría ser la supercomputadora de IA más poderosa construida hasta ahora. Una computadora de tamaño más razonable (512 H100) tomaría 4 meses. Intel continúa cerrando en Intel presentó resultados para sistemas que utilizan el chip acelerador Gaudi 2 y para aquellos que no tenían ningún acelerador, confiando únicamente en su CPU Xeon de cuarta generación. El gran cambio con respecto al último conjunto de puntos de referencia de capacitación fue que la compañía había habilitado las capacidades de punto flotante de 8 bits (FP8) de Gaudi 2. El uso de números de menor precisión, como FP8, ha sido responsable de la mayor parte de la mejora en el rendimiento de la GPU en los últimos 10 años. El uso de FP8 en partes de GPT-3 y otras redes neuronales de transformadores donde su baja precisión no afectará la precisión ya ha mostrado su valor en los resultados H100 de Nvidia. Ahora Gaudi 2 está viendo el impulso. “Proyectamos una ganancia del 90 por ciento” al encender el FP8, dice Eitan Medina, director de operaciones de Intel Habana Labs. «Hemos entregado más de lo prometido: una reducción del 103 por ciento en el tiempo de entrenamiento para un grupo de 384 aceleradores». Ese nuevo resultado coloca al sistema Gaudi 2 a poco menos de un tercio de la velocidad de un sistema Nvidia en un por chip y tres veces más rápido que el TPUv5e de Google. En el punto de referencia de nueva generación de imágenes, Gaudi 2 también tenía aproximadamente la mitad de velocidad que el H100. GPT-3 fue el único punto de referencia que FP8 se habilitó para esta ronda, pero Medina dice que su equipo está trabajando para activarlo para otros ahora. Medina continuó argumentando que Gaudi 2 tiene un precio significativamente más bajo que el H100, por lo que tiene una ventaja en una métrica combinada de precio y rendimiento. Medina espera que la ventaja aumente con la próxima generación del chip acelerador Intel, Gaudi 3. Ese chip se producirá en volumen en 2024 y se construirá utilizando el mismo proceso de fabricación de semiconductores que la Nvidia H100. Por otra parte, Intel presentó resultados para sistemas basados ​​en sólo en CPU. Nuevamente, se muestran tiempos de entrenamiento de entre minutos y horas para varios puntos de referencia. Más allá de los puntos de referencia MLPerf, Intel también compartió algunos datos que muestran que un sistema Xeon de 4 nodos, cuyos chips incluyen el motor de matriz AMX, puede ajustar la difusión estable del generador de imágenes en menos de cinco minutos. El ajuste fino toma una red neuronal ya entrenada y la especializa en una tarea determinada. Por ejemplo, la IA del diseño de chips de Nvidia es un ajuste fino de un modelo de lenguaje grande existente llamado NeMo. Puede ver todos los resultados aquí. De los artículos de su sitio Artículos relacionados en la Web

Source link

La nueva supercomputadora de inteligencia artificial del Reino Unido, valorada en £225 millones, se encuentra entre las más rápidas del mundo

La nueva supercomputadora de IA será la más rápida del Reino Unido cuando se lance en 2024 y aprovechará la inteligencia artificial para impulsar avances en ciencia de vanguardia. La supercomputadora Isambard-AI estará alojada en el Centro Nacional de Composites en Bristol, Reino Unido. Imagen: NCC El gobierno del Reino Unido está gastando £225 millones ($280 millones) en un intento por construir una de las supercomputadoras más rápidas del mundo, capaz de entregar más de 200 petaflops. – unos 200 billones de cálculos – cada segundo. Isambard-AI, que lleva el nombre del ingeniero británico pionero Isambard Kingdom Brunel, será 10 veces más rápido que el actual superordenador más rápido del Reino Unido, ARCHER2, y es una de las dos nuevas máquinas que se están construyendo para impulsar avances en robótica, análisis de datos, energía de fusión, atención sanitaria y investigación climática. Saltar a: Construyendo la supercomputadora más poderosa de Gran Bretaña Construida por Hewlett Packard Enterprise y alojada en la Universidad de Bristol, Isambard-AI comprenderá casi 5000 superchips NVIDIA GH200 Grace Hopper y contribuirá con 21 exaflops de rendimiento de IA a los investigadores cuando se inaugure en el National Composites de Bristol. Centro a mediados de 2024 (Figura A). Figura A Una maqueta de la supercomputadora Isambard-AI, que será la más rápida del Reino Unido cuando se lance en el verano de 2024. Imagen: HPE Más cobertura de IA de lectura obligada Simon McIntosh-Smith, profesor de la Universidad de Bristol y director del Isambard National Research Facility, dijo en un comunicado de prensa de HPE que Isambard-AI representaba “un gran salto adelante para el poder computacional de la IA” para el Reino Unido. «Hoy en día, Isambard-AI estaría entre las 10 supercomputadoras más rápidas del mundo y, cuando entre en funcionamiento a finales de 2024, será uno de los sistemas de IA para ciencia abierta más poderosos del mundo», dijo McIntosh-Smith en el comunicado de prensa. . Y añadió: «Es inmensamente emocionante estar a la vanguardia de la revolución de la IA y asociarnos con los líderes de la industria HPE y NVIDIA para construir e implementar rápidamente una infraestructura informática de investigación a gran escala para crear una de las supercomputadoras más poderosas del mundo». El Reino Unido se propone convertirse en el líder mundial en IA Isambard-AI se anunció por primera vez en septiembre de 2023 como parte de los planes del gobierno del Reino Unido para establecer un nuevo recurso de investigación de IA, o AIRR, para “impulsar la investigación y la innovación pioneras en IA en el Reino Unido”. y convertir al país en líder mundial en inteligencia artificial. La inyección de fondos para la nueva supercomputadora fue anunciada por el Departamento de Ciencia, Innovación y Tecnología del Reino Unido durante la Cumbre de Seguridad de IA de la semana pasada, donde también reveló planes para triplicar la inversión en AIRR de £100 millones (£124 millones) a £300 millones ( 372 millones de dólares). Isambard-AI se conectará a otra supercomputadora llamada Dawn, que está siendo construida por Dell, Intel y la consultora informática británica StackHPC en asociación con la Universidad de Cambridge, y que comenzará a funcionar en los próximos meses. Juntos, Isambard-AI y Dawn proporcionarán a investigadores y científicos «más de 30 veces la capacidad de las actuales herramientas informáticas públicas de IA del Reino Unido», según DIST. Apoyar la investigación del gobierno del Reino Unido sobre los riesgos y la seguridad de la IA. Las instalaciones de supercomputación de Bristol serán accesibles para una serie de organizaciones británicas con fines de investigación de la IA. Se dará acceso prioritario al Frontier AI Taskforce del gobierno del Reino Unido «para apoyar su trabajo para mitigar los riesgos planteados por las formas más avanzadas de IA, incluida la seguridad nacional frente al desarrollo de armas biológicas y ciberataques», como se indica en el comunicado de prensa del gobierno del Reino Unido. sobre Isambard-AI. La instalación también apoyará el trabajo realizado por el AI Safety Institute, el organismo gubernamental recientemente formado encargado de probar la seguridad y viabilidad de nuevos modelos de IA antes y después de su implementación para ayudar a informar la política gubernamental. ¿Qué tamaño tiene la industria de la IA en el Reino Unido? Según el gobierno del Reino Unido, en marzo de 2023, la inteligencia artificial ya aporta más de 3.700 millones de libras esterlinas (4.600 millones de dólares) a la economía del Reino Unido y emplea a más de 50.000 personas. Afirma que el país alberga el doble de empresas de inteligencia artificial que cualquier otra nación europea, y que «cientos más» se instalan en el Reino Unido cada año. Justin Hotard, vicepresidente ejecutivo y director general de HPC, IA y laboratorios de HPE, dijo en el comunicado de prensa de HPE que la reciente inversión del Reino Unido en supercomputación de IA subraya «su compromiso de tomar una posición de liderazgo global en IA». Hotard añadió: «El sistema Isambard-AI aprovechará la supercomputación líder en el mundo, incluidas las redes de alto rendimiento desarrolladas conjuntamente en los laboratorios de HPE en Bristol, para proporcionar el rendimiento y la escala necesarios para proyectos de IA con uso intensivo de computación». Y añadió: «Estamos orgullosos de asociarnos con el gobierno del Reino Unido y la Universidad de Bristol para brindar a los investigadores y a la industria del Reino Unido acceso al sistema de inteligencia artificial para ciencia abierta más grande de Europa». VER: Financiamiento inicial de IA del Reino Unido: el Instituto Alan Turing identifica una enorme disparidad de género Detalles técnicos sobre la supercomputadora Isambard-AI Isambard-AI se construirá utilizando el marco de supercomputación HPE Cray EX y contará con el marco de interconexión HPE Slingshot 11, que está diseñado para manejar el rendimiento masivo de datos necesario para simulaciones complejas y cargas de trabajo de IA. Cuando se active, se espera que la supercomputadora alcance más de 200 petaflops de rendimiento informático según el punto de referencia Top500 LINPACK, el estándar para medir la velocidad de procesamiento de un sistema informático. Esta potencia informática permitirá 21 exaflops de rendimiento de IA, siendo un exaflop una medida de quintillones de operaciones de punto flotante por segundo utilizadas para medir tareas computacionales especializadas de IA. En perspectiva, los últimos teléfonos inteligentes del mercado “sólo” son capaces de realizar billones de cálculos por segundo. La supercomputadora estará alojada en un centro de datos autónomo y refrigerado por sí mismo en NCC, con sede en Bristol & Bath Science Park. NCC es uno de los siete centros de investigación en todo el Reino Unido que forman High Value Manufacturing Catapult, que ofrece acceso a instalaciones y experiencia de investigación y desarrollo que de otro modo serían inaccesibles para las empresas del Reino Unido. Según NVIDIA, una segunda supercomputadora basada en Arm que llegará al NCC el próximo año, llamada Isambard 3, ofrecerá aproximadamente 2,7 petaflops de rendimiento informático y consumirá menos de 270 kilovatios de energía, lo que la ubicará «entre las tres supercomputadoras no aceleradas más ecológicas del mundo». .” Ian Buck, vicepresidente de hiperescala y HPC de NVIDIA, dijo en el comunicado de HPE: “Al construir una de las supercomputadoras de IA más rápidas del mundo, el Reino Unido está demostrando la importancia de que las naciones creen su propia infraestructura. Isambard-AI proporcionará a los investigadores los mismos recursos informáticos de IA y HPC de última generación utilizados por los principales pioneros de la IA del mundo, lo que permitirá al Reino Unido introducir la próxima ola de IA y avances científicos”.

Source link

El primer LLM verdaderamente abierto y adaptado a instrucciones del mundo por menos de 30 $

Free Dolly 2.0: el primer LLM verdaderamente abierto y ajustado a instrucciones del mundo por menos de 30 $ Dolly 2.0 es un popular modelo de aprendizaje profundo utilizado en el campo de la visión por computadora para tareas de segmentación de imágenes y detección de objetos. El modelo es de código abierto y se puede descargar y configurar de forma gratuita. En este artículo, recorreremos el proceso de instalación y configuración del modelo Free Dolly 2.0. Paso 1: Requisitos Antes de comenzar el proceso de instalación, asegúrese de que su sistema cumpla con los siguientes requisitos: GPU NVIDIA con un mínimo de 4 GB de memoria. CUDA 10.0 o superior. CUDNN 7.5 o superior. Python 3.6 o superior. TensorFlow 2.3 o superior. Paso 2: descargue el modelo Free Dolly 2.0. El modelo Free Dolly 2.0 se puede descargar desde el repositorio oficial de GitHub. Navegue hasta el repositorio y haga clic en el botón «Clonar o descargar». Puede descargar el archivo ZIP o clonar el repositorio usando el siguiente comando: git clone https://github.com/thtrieu/darkflow.git Paso 3: Instalar dependencias Una vez que haya descargado el modelo Free Dolly 2.0, deberá instalarlo. sus dependencias. Abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para instalar las dependencias: pip install -r requisitos.txt Paso 4: Compile el modelo Free Dolly 2.0 Después de instalar las dependencias, debe compilar el modelo Free Dolly 2.0. Este paso es necesario para convertir el modelo del formato TensorFlow al formato Darkflow. Ejecute el siguiente comando en la ventana de terminal: python setup.py build_ext –inplace Paso 5: Descargue los pesos previamente entrenados El modelo Free Dolly 2.0 requiere pesos previamente entrenados para realizar tareas de detección de objetos. Puede descargar las pesas previamente entrenadas desde el siguiente enlace: https://pjreddie.com/media/files/yolov2.weights Una vez que haya descargado las pesas previamente entrenadas, colóquelas en el mismo directorio donde descargó el software gratuito. Modelo Dolly 2.0. Paso 6: Configurar el modelo Free Dolly 2.0 Ahora que ha descargado y compilado el modelo Free Dolly 2.0, necesita configurarlo. Abra el archivo de configuración cfg/yolo.cfg en un editor de texto. Este archivo contiene los parámetros de configuración del modelo. Puede modificar los siguientes parámetros para personalizar el modelo: lote: el número de imágenes a procesar a la vez. subdivisiones: el número de subdivisiones por lote. ancho: El ancho de la imagen de entrada. altura: la altura de la imagen de entrada. canales: el número de canales de color en la imagen de entrada. impulso: El impulso del optimizador. decaimiento: El decaimiento del optimizador. learning_rate: la tasa de aprendizaje del optimizador. Asegúrese de guardar los cambios después de modificar el archivo de configuración. Paso 7: Pruebe el modelo Free Dolly 2.0 Para probar el modelo Free Dolly 2.0, abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para probar el modelo: python flow –model cfg/yolo.cfg –load yolov2.weights –imgdir sample_img/ Este comando ejecutará el modelo Free Dolly 2.0 en las imágenes de muestra proporcionadas en el directorio sample_img. Si todo está configurado correctamente, debería ver el resultado del modelo en la ventana de la terminal. Paso 8: Utilice el modelo Free Dolly 2.0 Ahora que ha instalado y probado el modelo Free Dolly 2.0, puede utilizarlo para realizar tareas de detección de objetos en sus propias imágenes o vídeos. Para hacerlo, siga estos pasos: Paso 8: Prepare los datos de entrada El modelo Free Dolly 2.0 requiere datos de entrada en forma de imágenes o videos. Asegúrese de que sus datos de entrada estén en un formato que sea compatible con el modelo. Puede utilizar cualquier software de edición de imágenes o vídeos para preparar los datos de entrada. Paso 9: Ejecute el modelo Dolly 2.0 gratuito Abra una ventana de terminal y navegue hasta el directorio donde descargó el modelo. Ejecute el siguiente comando para ejecutar el modelo en sus datos de entrada: Paso 10: Analizar la salida Una vez que el modelo haya terminado de ejecutarse, puede analizar la salida para identificar objetos en los datos de entrada. La salida del modelo se guardará en el directorio de salida. Puede utilizar cualquier software de edición de imágenes o vídeos para ver el resultado. La salida consistirá en cuadros delimitadores alrededor de los objetos que se detectaron en los datos de entrada. Las casillas estarán etiquetadas con el nombre del objeto y la puntuación de confianza. Puede utilizar el resultado para realizar análisis adicionales o crear visualizaciones. Conclusión El modelo Free Dolly 2.0 es una poderosa herramienta para realizar tareas de detección de objetos en visión por computadora. Siguiendo los pasos descritos en este artículo, puede instalar y configurar el modelo en su propio sistema y utilizarlo para analizar imágenes o vídeos. Con un poco de personalización, puede adaptar el modelo para que se adapte a sus necesidades específicas y realizar tareas más complejas.

Source link

Nvidia está probando una IA generativa para sus ingenieros


En un discurso de apertura en la Conferencia Internacional IEEE/ACM sobre Diseño Asistido por Computadora el lunes, el director de tecnología de Nvidia, Bill Dally, reveló que la compañía ha estado probando un modelo de IA en lenguaje grande para aumentar la productividad de sus diseñadores de chips. los hicimos un 5 por ciento más productivos, eso es una gran victoria”, dijo Dally en una entrevista antes de la conferencia. Nvidia no puede afirmar que haya alcanzado ese objetivo todavía. El sistema, llamado ChipNeMo, no está preparado para el tipo de prueba grande (y prolongada) que realmente demostraría su valor. Pero un grupo de voluntarios de Nvidia lo está utilizando y hay algunos indicios positivos, afirmó Dally. ChipNeMo es una versión especialmente adaptada de un modelo de lenguaje grande. Comienza como un LLM compuesto por 43 mil millones de parámetros que adquiere sus habilidades a partir de un billón de tokens (unidades lingüísticas fundamentales) de datos. «Eso es como darle una educación en artes liberales», dijo Dally. «Pero si quieres enviarlo a la escuela de posgrado y especializarlo, debes ajustarlo en un corpus de datos particular… en este caso, el diseño de chips». Eso requirió dos pasos más. Primero, ese modelo ya entrenado se volvió a entrenar con 24 mil millones de tokens de datos especializados. Doce mil millones de esos tokens provinieron de documentos de diseño, informes de errores y otros datos internos en inglés acumulados durante los 30 años de trabajo de Nvidia en el diseño de chips. Los otros 12 mil millones de tokens provinieron de código, como el lenguaje de descripción de hardware Verilog y scripts para llevar a cabo cosas con herramientas de automatización de diseño electrónico industrial (EDA). Finalmente, el modelo resultante se sometió a un “ajuste supervisado”, entrenándose en 130.000 conversaciones y diseños de muestra. Al resultado, ChipNeMo, se le asignaron tres tareas diferentes: como chatbot, como guionista de la herramienta EDA y como resumidor. de informes de errores. Actuar como un chatbot para ingenieros podría ahorrar tiempo a los diseñadores, dijo Dally. «Los diseñadores senior dedican mucho tiempo a responder preguntas de los diseñadores junior», dijo. Como chatbot, la IA puede ahorrar tiempo al diseñador senior respondiendo preguntas que requieren experiencia, como qué podría significar una señal extraña o cómo se debe ejecutar una prueba específica. Sin embargo, los chatbots son conocidos por su disposición a mentir cuando no lo hacen. conocen la respuesta y su tendencia a alucinar. Entonces, los desarrolladores de Nvidia integraron una función llamada generación aumentada de recuperación en ChipNeMo para mantenerlo en el nivel. Esa función obliga a la IA a recuperar documentos de los datos internos de Nvidia para respaldar sus sugerencias. La incorporación de la generación de recuperación aumentada «mejora bastante la precisión», dijo Dally. «Más importante aún, reduce las alucinaciones». En su segunda aplicación, ChipNeMo ayudó a los ingenieros a realizar pruebas en diseños y partes de ellos. «Utilizamos muchas herramientas de diseño», dijo Dally. «Estas herramientas son bastante complicadas y normalmente implican muchas líneas de secuencias de comandos». ChipNeMo simplifica el trabajo del diseñador al proporcionar una «interfaz humana muy natural para lo que de otro modo serían comandos muy arcanos». El caso de uso final de ChipNeMo, que analiza y resume los informes de errores, «es probablemente aquel en el que vemos las perspectivas de mayor aumento de productividad». lo antes posible”, dijo Dally. Cuando una prueba falla, explicó, se registra en el sistema interno de informe de errores de Nvidia, y cada informe puede incluir páginas y páginas de datos detallados. Luego se envía un «ARB» (abreviatura de «acción requerida por») a un diseñador para que lo solucione, y el tiempo comienza a correr. ChipNeMo resume las muchas páginas del informe de error en tan solo un párrafo, lo que acelera las decisiones. Incluso puede escribir ese resumen en dos modos: uno para el ingeniero y otro para el gerente. Los fabricantes de herramientas de diseño de chips, como Synopsys y Cadence, se han sumergido en la integración de la IA en sus sistemas. Pero según Dally, no podrán lograr lo mismo que Nvidia busca. “Lo que nos permite hacer esto son 30 años de documentos de diseño y código en una base de datos”, dijo. ChipNeMo está aprendiendo «de toda la experiencia de Nvidia». Las empresas de EDA simplemente no tienen ese tipo de datos. Artículos de su sitio Artículos relacionados en la Web

Source link

Página 3 de 3

Funciona con WordPress & Tema de Anders Norén