Todo lo que necesitas saber sobre tecnología

Etiqueta: IA generativa Página 1 de 8

Intel Vision 2024 ofrece una nueva mirada al chip AI Gaudi 3

Intel Vision 2024 ofrece una nueva mirada al chip AI Gaudi 3

Después de anunciar por primera vez la existencia del acelerador de IA Gaudi 3 el año pasado, Intel está listo para poner el chip en manos de los OEM en el segundo trimestre de 2024. Intel anunció esta y otras noticias, incluida una nueva marca Xeon 6 y un estándar Ethernet abierto para IA. cargas de trabajo, en una sesión informativa previa celebrada el 1 de abril antes de la conferencia Intel Vision, que se llevará a cabo del 8 al 9 de abril en Phoenix, Arizona. El acelerador de IA Gaudi 3 se enviará a Dell, Hewlett Packard Enterprise, Lenovo y Supermicro. El Gaudi 3 se lanzará con Dell, Hewlett Packard Enterprise, Lenovo y Supermicro como socios OEM. Intel Gaudi 3 estará disponible a través de proveedores en tres factores de forma: tarjeta intermedia, placa base universal o PCle CEM. Gaudi 3 tiene un tiempo de entrenamiento de modelos de lenguajes grandes un 40% más rápido en comparación con el chip H100 AI de NVIDIA y una inferencia en LLM un 50% más rápida en comparación con el NVIDIA H100, dijo Intel. Gaudi 3 puede enfrentarse cara a cara con el chip acelerador de IA recientemente anunciado por NVIDIA, Blackwell. Gaudi 3 es «altamente competitivo», afirmó Jeff McVeigh, vicepresidente corporativo y director general del Grupo de Ingeniería de Software de Intel. McVeigh señaló que aún no ha sido posible realizar pruebas en el mundo real para los dos productos. La nueva marca Xeon 6 llegará en el segundo trimestre. Los procesadores Xeon 6, que vienen en las dos variantes de Performance-core y Efficient-core, se enviarán pronto. Los procesadores E-core se enviarán en el segundo trimestre de 2024, y poco después los procesadores P-core. Las dos variantes de los procesadores Xeon 6 comparten la misma base de plataforma y pila de software. El núcleo Performance está optimizado para cargas de trabajo de IA y de computación intensiva, mientras que el núcleo Efficient está optimizado para la eficiencia en las mismas cargas de trabajo. El procesador Intel Xeon 6 con E-core muestra una mejora de rendimiento por vatio de 2,4 veces en comparación con las generaciones anteriores y una mejora de rendimiento por bastidor de 2,7 veces en comparación con las generaciones anteriores. El procesador Xeon 6 muestra un marcado ahorro de energía en comparación con el procesador Intel Xeon de segunda generación debido a que necesita menos bastidores de servidores, lo que supone una reducción de energía de hasta 1 megavatio. La tarjeta de interfaz de red admite el estándar abierto de Internet para cargas de trabajo de IA. Como parte del esfuerzo de Intel para proporcionar una amplia gama de infraestructura de IA, la compañía anunció una tarjeta de interfaz de red de IA para adaptadores de red Intel Ethernet y IPU Intel. Las tarjetas de interfaz de red de IA, que ya utiliza Google Cloud, proporcionarán una forma segura de descargar funciones como almacenamiento, redes y gestión de contenedores y gestionar la infraestructura de IA, dijo Intel. La intención es poder entrenar y ejecutar inferencias sobre los modelos de IA generativa cada vez más grandes que Intel predice que las organizaciones querrán implementar en todo Ethernet. Intel está trabajando con el Consorcio Ultra Ethernet para crear un estándar abierto para redes de IA a través de Ethernet. Se espera que las tarjetas de interfaz de red de IA estén disponibles en 2026. Una estrategia de sistemas escalables de amplio alcance tiene como objetivo facilitar la adopción de la IA. Para prepararse para lo que la compañía predice que será el futuro de la IA, Intel planea implementar una estrategia de sistemas escalables. para empresas. «Queremos que sea abierto y que las empresas tengan opciones en hardware, software y aplicaciones», dijo Sachin Katti, vicepresidente senior y gerente general de Network and Edge Group de Intel, en la sesión informativa previa. Para lograrlo, la estrategia de sistemas escalables proporciona productos Intel para todos los segmentos de IA dentro de la empresa: hardware, software, marcos y herramientas. Intel está trabajando con una variedad de socios para hacer realidad esta estrategia, incluido: Google Cloud. Tales. Cohesidad. NAVER. Bosco. Ola/Kutrim. NielsenIQ. Buscador. FIB. Grupo CtrlS. Aterrizando IA. Roboflujo. Intel predice un futuro de agentes y funciones de IA. Katti dijo en el informe previo que las empresas se encuentran en una era de copilotos de IA. Luego podría venir una era de agentes de IA, que puedan coordinar otras IA para realizar tareas de forma autónoma, seguida de una era de funciones de IA. El aumento de las funciones de IA podría significar que grupos de agentes asuman el trabajo de un departamento completo, dijo Sachin. VER: Articul8, creadores de una plataforma de software de inteligencia artificial generativa, se separó de Intel en enero. (TechRepublic) Competidores de Intel Intel está tratando de diferenciarse de sus competidores centrándose en la interoperabilidad en el ecosistema abierto. Intel compite en el espacio de los chips de IA con: NVIDIA, que anunció el chip Blackwell de próxima generación en marzo de 2024. AMD, que en febrero de 2024 anunció una nueva solución arquitectónica para la inferencia de IA basada en procesadores AMD Ryzen Embedded. Intel compite por el dominio en la fabricación de chips con Taiwan Semiconductor Manufacturing Co., Samsung, IBM, Micron Technologies, Qualcomm y otros. TechRepublic cubre Intel Vision de forma remota.

Spotify presenta listas de reproducción con IA: aquí se explica cómo crear una

Spotify presenta listas de reproducción con IA: aquí se explica cómo crear una

La continua integración de la IA generativa en productos modernos de hardware y software sin duda ha sido evidente solo en el último año, y casi todas las empresas en línea se han sumado a la moda de la IA. Dicho esto, sin embargo, no muchos lo están usando de maneras creativamente poco ortodoxas, aparte de utilizarlo como un punto de venta. Sin embargo, este no parece ser el caso con la característica más nueva de Spotify: la plataforma de transmisión de música anunció recientemente que brindará a los usuarios la posibilidad de crear una «lista de reproducción AI» utilizando indicaciones basadas en texto, lo cual es un enfoque nuevo e interesante. hasta crear una lista de reproducción de música personalizada. La función se implementará inicialmente para usuarios en Australia y el Reino Unido, según un anuncio oficial de Spotify: comenzando con usuarios de dispositivos Android e iOS en el Reino Unido y Australia, crear una nueva lista de reproducción con AI Playlist es tan simple como escribir. un mensaje único en el chat. ¿Buscas “una lista de reproducción de folk indie para darle a mi cerebro un abrazo cálido”, “música relajante para ayudarme durante la temporada de alergias” o “una lista de reproducción que me haga sentir como el personaje principal”? La lista de reproducción AI lo tiene cubierto. Ya seas un principiante o un creador de listas de reproducción experto, AI Playlist combina nuestra potente tecnología de personalización con IA para ofrecer esa mezcla musical perfecta, solo para ti. Crear una lista de reproducción de IA también es relativamente fácil. Para acceder a la función, los usuarios deben dirigirse a la aplicación móvil de Spotify y seleccionar «Su biblioteca» en la esquina inferior derecha de la pantalla, y seguir los pasos a continuación: Desde Su biblioteca, toque el botón «+» en la parte superior. esquina derecha de la aplicación y seleccione «Lista de reproducción AI». Seleccione una de las indicaciones sugeridas o escriba la suya propia. Sky parece ser el límite con las indicaciones de texto para la función (al menos según cómo la ha descrito Spotify hasta ahora). Luego, Spotify ofrecerá algunas pistas según su descripción. Desde allí, puedes administrar fácilmente la selección de canciones obteniendo una vista previa y eliminando pistas. Los usuarios también pueden revisar y refinar las listas de reproducción generadas diciéndole a AI Playlist lo que buscan (es decir, «más pop» o «menos optimista»). Toca «Crear» y tu nueva lista de reproducción se guardará automáticamente en Tu biblioteca. Fuente: Spotify

Source link

Se necesita tecnología para sobrevivir a las tendencias B2B ‘sísmicas’ de APAC de esta década

Se necesita tecnología para sobrevivir a las tendencias B2B ‘sísmicas’ de APAC de esta década

El mercado de empresa a empresa experimentará una serie de grandes cambios en los años hasta 2030, según un nuevo informe de la firma de experiencia del cliente Merkle. Las empresas B2B regionales de APAC deberán considerar sus niveles de inversión en una serie de tecnologías e integrar nuevas herramientas ahora para prepararse y adaptarse a los cambios venideros. El informe B2B Futures: The View From 2030 sostiene que cuatro tendencias “síssmicas” clave están llegando al B2B: Un aumento en el comercio de máquina a máquina. Trazabilidad mejorada de la cadena de suministro. El dominio de los mercados digitales B2B. Velocidad de comercialización radicalmente acelerada. Jake Hird, vicepresidente de estrategia de Merkle B2B – APAC, dijo a TechRepublic que las empresas B2B de la región deberán responder con inversiones en tecnologías que incluyen IoT, IA, análisis de datos y blockchain para garantizar que se adapten a estos cambios que afectan a sus negocios y mercados. IoT para facilitar un aumento en el comercio de máquina a máquina El comercio de máquina a máquina aumentará hasta representar un tercio de todos los negocios B2B para 2030, dijo Merkle. En la práctica, esto verá la extensión de las herramientas automatizadas de toma de decisiones actuales, como los sistemas de reabastecimiento para minoristas que automatizan la compra de nuevo inventario de las fábricas, hacia decisiones más complejas pero aún sobre productos básicos, respaldadas por la IA. Jake Hird, vicepresidente de estrategia, Merkle B2B, APACImagen: Merkle Hird dijo que esta tendencia requeriría que las empresas B2B prioricen cada vez más las inversiones en cosas como infraestructura de TI, inteligencia artificial y herramientas de aprendizaje automático, tecnología blockchain y seguridad cibernética. Internet de las cosas El crecimiento del comercio de máquina a máquina dependerá en gran medida de la adopción y el despliegue de herramientas de IoT, que deberán integrarse en todo el mercado B2B. «Los dispositivos, sensores y redes de IoT formarán la columna vertebral del comercio m2m», dijo Hird. Si bien reconoce el crecimiento inestable hasta la fecha en el mercado de IoT, Merkle dijo que IoT ha madurado. El informe de Merkle predijo que los dispositivos IoT pronto serían una fuente clave de datos para las empresas B2B que necesitan «identificar y pronosticar las necesidades comerciales, que van desde la posible falta de existencias hasta la degradación de los equipos que pueden necesitar reemplazo, y realizar transacciones en consecuencia». Blockchain y contratos inteligentes Las máquinas tendrán los medios para realizar transacciones con otras máquinas utilizando blockchain. «La tecnología Blockchain y los contratos inteligentes garantizarán transacciones seguras y transparentes, permitiendo a las máquinas ejecutar acuerdos sin intervención humana», dijo Hird. DESCARGAR: Más de 50 glosarios tecnológicos de TechRepublic Infraestructura informática de borde premium Las empresas B2B necesitarán invertir en infraestructura de computación de borde para admitir más procesamiento de datos en tiempo real y transacciones de compra en sus huellas y cadenas de suministro. Plataformas de integración y gestión de datos Las empresas B2B necesitarán recopilar, procesar y analizar más información, lo que hace que la inversión en gestión de datos sea importante. Esto incluirá superar los desafíos de integración y aprovechar la interoperabilidad de los sistemas para generar los conocimientos necesarios para alimentar los sistemas. Sistemas de seguridad cibernética Las soluciones de seguridad cibernética serán cruciales para proteger las transacciones del acceso no autorizado, así como de otras amenazas en línea, según Merkle. «Las empresas necesitarán invertir en medidas como sistemas de detección de intrusos y tecnologías de cifrado avanzadas», afirmó Hird. Blockchain y tecnología de contabilidad distribuida para ofrecer trazabilidad de la cadena de suministro La trazabilidad de la cadena de suministro podría convertirse en uno de los dos principales impulsores de compras para B2B para 2030, debido a la presión de los consumidores y del mercado. Esto hará que aumente la adopción de la tecnología blockchain y de contabilidad distribuida a medida que las empresas busquen profundizar la transparencia y la confianza de sus cadenas de suministro. Blockchain y tecnología de contabilidad distribuida El informe de Merkle sugiere que blockchains, la forma más común de tecnología de contabilidad distribuida, podría ayudar a “arrojar luz sobre las cadenas de suministro globales bizantinas” al brindar acceso a datos de certificación, prácticas de abastecimiento e impacto ambiental, incluso calculando las huellas de carbono. Estas tecnologías podrían ayudar a las empresas a hacer cumplir los estándares de sostenibilidad. Etiquetas RFID e IoT La disponibilidad, la disminución del coste y la miniturización de las etiquetas RFID y los sensores de IoT harán que la IoT desempeñe un papel fundamental en la trazabilidad. Se espera que esto permita el seguimiento y monitoreo en tiempo real de los productos a medida que avanzan a lo largo de la cadena de suministro, desde el abastecimiento hasta la venta. Herramientas de análisis de datos e inteligencia artificial Los actores B2B necesitarán análisis de datos e inteligencia artificial para obtener información a partir de los datos generados por los sistemas de trazabilidad de la cadena de suministro. «A través del análisis en tiempo real, las empresas pueden optimizar la gestión de inventario, anticipar las fluctuaciones de la demanda y mitigar los riesgos de la cadena de suministro», dijo Hird. Preparación para la integración para respaldar el auge de los mercados digitales B2B Se espera que los mercados digitales B2B capturen el 50 % del negocio B2B para 2030, frente al 15 % en 2024. Este cambio impulsará a las organizaciones B2B a centrarse en implementar plataformas de comercio electrónico para desarrollar una presencia. dentro de mercados digitales en crecimiento o sumergirse y construir los suyos propios. Herramientas de análisis y personalización El análisis y la personalización permitirán a las empresas obtener información sobre el comportamiento y las preferencias de los clientes, dijo Hird. Esto ayudará a las empresas B2B a ajustar el marketing y las comunicaciones para compradores B2B individuales, mejorando la experiencia del cliente, el compromiso y los ingresos. Soluciones de integración y API Los mercados digitales dependen de la integración de sistemas para facilitar las transacciones de los clientes y las experiencias de compra. Las empresas deberán invertir en soluciones API y de integración para conectar sistemas y plataformas internos y externos para optimizar las operaciones y mejorar la eficiencia. Tecnología de optimización de la cadena de suministro Los modelos de mercado digital también requieren que las empresas B2B satisfagan demandas como tiempos de entrega más rápidos y cumplimiento eficiente de los pedidos desde su presencia en el mercado, dijo Hird. Sostuvo que esto alentará a las empresas B2B a adoptar más tecnologías de optimización de la cadena de suministro. Herramientas de diseño y creación de prototipos para acelerar la velocidad de comercialización B2B Se esperan cambios importantes en la forma en que las marcas B2B diseñan, prueban y entregan productos al mercado. Por ejemplo, en farmacología, dijo Merkle, aunque puede llevar de 10 a 15 años llevar un medicamento al mercado, un descubrimiento de fármacos y ensayos clínicos más rápidos podrían acortar este proceso dramáticamente. Hird dijo a TechRepublic que los procesos de diseño de prototipos y productos funcionales se pueden potenciar con IA generativa y tecnologías de creación de prototipos virtuales. Al utilizar simulaciones y herramientas de diseño que aumentan las contribuciones humanas y los métodos tradicionales, las empresas podrán reducir significativamente el tiempo y el costo asociados con la creación de prototipos y pruebas físicas. «Esto permite ciclos de iteración más rápidos, acelerando el proceso de desarrollo de productos y mejorando la velocidad de comercialización de nuevos productos e innovaciones», dijo Hird.

Source link

Los profesionales de TI y seguridad son «cautelosamente optimistas» sobre la IA

Los profesionales de TI y seguridad son «cautelosamente optimistas» sobre la IA

La alta dirección está más familiarizada con las tecnologías de inteligencia artificial que su personal de seguridad y TI, según un informe de Cloud Security Alliance encargado por Google Cloud. El informe, publicado el 3 de abril, abordó si los profesionales de TI y seguridad temen que la IA reemplace sus trabajos, los beneficios y desafíos del aumento de la IA generativa y más. De los profesionales de TI y seguridad encuestados, el 63 % cree que la IA mejorará la seguridad dentro de su organización. Otro 24% es neutral sobre el impacto de la IA en las medidas de seguridad, mientras que el 12% no cree que la IA mejore la seguridad dentro de su organización. De las personas encuestadas, sólo unos pocos (12%) predicen que la IA reemplazará sus puestos de trabajo. La encuesta utilizada para crear el informe se realizó a nivel internacional, con respuestas de 2486 profesionales de seguridad y TI y líderes de la alta dirección de organizaciones de toda América, APAC y EMEA en noviembre de 2023. Los profesionales de ciberseguridad que no ocupan puestos de liderazgo son menos claros que los altos directivos. sobre posibles casos de uso de la IA en ciberseguridad, y solo el 14% del personal (en comparación con el 51% de los niveles C) dicen que son «muy claros». «La desconexión entre la alta dirección y el personal a la hora de comprender e implementar la IA resalta la necesidad de un enfoque estratégico y unificado para integrar con éxito esta tecnología», dijo Caleb Sima, presidente de la Iniciativa de Seguridad de IA de Cloud Security Alliance, en un comunicado de prensa. Algunas preguntas del informe especificaban que las respuestas debían estar relacionadas con la IA generativa, mientras que otras preguntas utilizaban el término «IA» de manera amplia. Los profesionales de nivel C enfrentan presiones de arriba hacia abajo que pueden haberlos llevado a ser más conscientes de los casos de uso de la IA que los profesionales de la seguridad. Muchos (82%) profesionales de la alta dirección dicen que su liderazgo ejecutivo y sus juntas directivas están presionando para que se adopte la IA. Sin embargo, el informe afirma que este enfoque podría causar problemas de implementación en el futuro. «Esto puede resaltar una falta de apreciación de la dificultad y el conocimiento necesarios para adoptar e implementar una tecnología tan única y disruptiva (por ejemplo, ingeniería rápida)», escribió la autora principal Hillary Baron, directora técnica senior de investigación y análisis de Cloud Security Alliance. y un equipo de colaboradores. Hay algunas razones por las que podría existir esta brecha de conocimiento: los profesionales de la ciberseguridad pueden no estar tan informados sobre la forma en que la IA puede afectar la estrategia general. Los líderes pueden subestimar lo difícil que podría ser implementar estrategias de IA dentro de las prácticas de ciberseguridad existentes. Los autores del informe señalan que algunos datos (Figura A) indican que los encuestados están tan familiarizados con la IA generativa y los grandes modelos de lenguaje como con términos más antiguos como procesamiento del lenguaje natural y aprendizaje profundo. Figura A Respuestas a la instrucción «Califique su familiaridad con las siguientes tecnologías o sistemas de IA». Imagen: Cloud Security Alliance Los autores del informe señalan que el predominio de la familiaridad con términos más antiguos, como procesamiento del lenguaje natural y aprendizaje profundo, podría indicar una combinación entre la IA generativa y herramientas populares como ChatGPT. «Es la diferencia entre estar familiarizado con las herramientas GenAI de nivel de consumidor versus el nivel profesional/empresarial lo que es más importante en términos de adopción e implementación», dijo Baron en un correo electrónico a TechRepublic. «Eso es algo que estamos viendo en general en todos los ámbitos con los profesionales de seguridad en todos los niveles». ¿La IA reemplazará los trabajos de ciberseguridad? Un pequeño grupo (12%) de profesionales de la seguridad cree que la IA sustituirá por completo sus puestos de trabajo en los próximos cinco años. Otros son más optimistas: el 30% cree que la IA les ayudará a mejorar partes de sus habilidades. El 28% predice que la IA los apoyará en general en su función actual. El 24% cree que la IA sustituirá gran parte de su función. El 5% espera que la IA no afecte en absoluto su función. Los objetivos de las organizaciones para la IA reflejan esto: el 36% busca que la IA mejore las habilidades y el conocimiento de los equipos de seguridad. El informe señala una discrepancia interesante: aunque mejorar las habilidades y los conocimientos es un resultado muy deseado, el talento ocupa el último lugar en la lista de desafíos. Esto podría significar que tareas inmediatas, como identificar amenazas, tengan prioridad en las operaciones diarias, mientras que el talento sea una preocupación a más largo plazo. Más cobertura de IA de lectura obligada Beneficios y desafíos de la IA en ciberseguridad El grupo estaba dividido sobre si la IA sería más beneficiosa para los defensores o los atacantes: el 34% considera que la IA es más beneficiosa para los equipos de seguridad. El 31% lo considera igualmente ventajoso tanto para los defensores como para los atacantes. El 25% lo ve más beneficioso para los atacantes. Los profesionales preocupados por el uso de la IA en seguridad citan las siguientes razones: Mala calidad de los datos, lo que genera sesgos no deseados y otros problemas (38%). Falta de transparencia (36%). Brechas de habilidades/experiencia cuando se trata de gestionar sistemas complejos de IA (33%). Intoxicación de datos (28%). Las alucinaciones, la privacidad, la fuga o pérdida de datos, la precisión y el mal uso eran otras opciones de lo que podría preocupar a la gente; Todas estas opciones recibieron menos del 25% de los votos en la encuesta, donde se invitó a los encuestados a seleccionar sus tres principales preocupaciones. VER: El Centro Nacional de Seguridad Cibernética del Reino Unido descubrió que la IA generativa puede mejorar los arsenales de los atacantes. (TechRepublic) Más de la mitad (51%) de los encuestados dijeron “sí” a la pregunta de si les preocupan los riesgos potenciales de una dependencia excesiva de la IA para la ciberseguridad; otro 28% fue neutral. Usos previstos de la IA generativa en la ciberseguridad De las organizaciones que planean utilizar la IA generativa para la ciberseguridad, existe una amplia variedad de usos previstos (Figura B). Los usos comunes incluyen: Creación de reglas. Simulación de ataque. Monitoreo de violaciones de cumplimiento. Detección de red. Reducir los falsos positivos. Figura B Respuestas a la pregunta ¿Cómo planea su organización utilizar la IA generativa para la ciberseguridad? (Seleccione los 3 casos de uso principales). Imagen: Cloud Security Alliance Cómo están estructurando las organizaciones sus equipos en la era de la IA De las personas encuestadas, el 74% dice que sus organizaciones planean crear nuevos equipos para supervisar el uso seguro de la IA en los próximos cinco años. La forma en que se estructuran esos equipos puede variar. Hoy en día, algunas organizaciones que trabajan en la implementación de IA la ponen en manos de su equipo de seguridad (24%). Otras organizaciones otorgan la responsabilidad principal de la implementación de IA al departamento de TI (21%), el equipo de análisis/ciencia de datos (16%), un equipo dedicado de IA/ML (13%) o la alta dirección/liderazgo (9%). En casos más raros, DevOps (8%), equipos multifuncionales (6%) o un equipo que no encajaba en ninguna de las categorías (listado como “otros” en el 1%) asumieron la responsabilidad. VER: Kit de contratación: ingeniero rápido (TechRepublic Premium) «Es evidente que la IA en la ciberseguridad no solo está transformando los roles existentes, sino también allanando el camino para nuevos puestos especializados», escribieron la autora principal Hillary Baron y el equipo de colaboradores. ¿Qué tipo de posiciones? La gobernanza generativa de la IA es un subcampo en crecimiento, dijo Baron a TechRepublic, al igual que la capacitación y la mejora de habilidades centradas en la IA. «En general, también estamos empezando a ver ofertas de trabajo que incluyen roles más específicos de IA, como ingenieros rápidos, arquitectos de seguridad de IA e ingenieros de seguridad», dijo Baron.

Source link

En la carrera de IA con EE. UU., China está atrasada en un arma clave: su propia OpenAI

En la carrera de IA con EE. UU., China está atrasada en un arma clave: su propia OpenAI

La gente aprende sobre el servicio de chatbot de inteligencia artificial de Baidu, Ernie Bot, durante la 2.ª Exposición Mundial de Comercio Digital en el Centro Internacional de Exposiciones de Hangzhou el 23 de noviembre de 2023 en Hangzhou, provincia china de Zhejiang. Servicio de Noticias de China | Servicio de Noticias de China | Getty Images El viaje espacial de Nvidia en el mercado de valores subraya hasta qué punto la calidad y disponibilidad de los chips determinarán quiénes serán los ganadores en la era de la IA generativa. Pero hay otro aspecto a la hora de medir las primeras pistas en el espacio. En China, que busca producir sus propios chips u obtener más de Nvidia, todavía no ha surgido ningún competidor de IA de generación dominante para OpenAI entre docenas de titanes tecnológicos y nuevas empresas chinas. Al final del juego, China está tratando de tomar el liderazgo de OpenAI en un mercado de IA estadounidense más amplio formado por los titanes tecnológicos Microsoft, Google de Alphabet y Amazon, y startups bien financiadas como Anthropic, que esta semana recibió una infusión de 2.700 millones de dólares en efectivo de Amazon. En este campo de rápido movimiento, la brecha entre Estados Unidos y su rival tecnológico China se considera amplia. «Las principales empresas chinas están comparando con ChatGPT, lo que indica lo rezagadas que están», dijo Paul Triolo, vicepresidente senior para China y líder de política tecnológica de Dentons Global Advisors en Washington, DC. «No muchas empresas pueden respaldar sus propias grandes empresas». modelo lingüístico. Se necesita mucho capital. Silicon Valley definitivamente está muy por delante del juego», dijo Jenny Xiao, socia de la firma de capital riesgo de inteligencia artificial Leonis Capital en San Francisco. Estados Unidos sigue siendo el mayor mercado de inversión. El año pasado, la financiación de nuevas empresas de generación de IA representó casi la mitad de los 42.500 millones de dólares invertidos a nivel mundial en empresas de inteligencia artificial, según CB Insights. En Estados Unidos, los capitalistas de riesgo y los inversores corporativos impulsaron la inversión en IA a 31.000 millones de dólares en 1.151 acuerdos, liderados por grandes desembolsos en OpenAI, Anthropic e Inflection. Esto se compara con 2.000 millones de dólares en 68 acuerdos en China, lo que marcó una gran caída con respecto a los 5.500 millones de dólares en 377 acuerdos de 2022. La caída se puede atribuir en parte a las restricciones a la inversión de riesgo de Estados Unidos en China. «China está en gran desventaja a la hora de construir los modelos básicos para la generación de IA», dijo Rui Ma, inversor en IA y cofundador de un sindicato de inversión y un podcast. TechBuzz China. Pero donde China se queda atrás en los modelos fundamentales, que están dominados por OpenAI y Gemini de Google, está cerrando la brecha utilizando el código abierto de Meta, el modelo de lenguaje grande Llama 1, y Triolo dijo que los contendientes chinos, si están detrás, están mejorando el modelo estadounidense. «Muchos de los modelos chinos son efectivamente bifurcaciones de Llama, y ​​el consenso es que estas bifurcaciones están uno o dos años por detrás de las principales empresas estadounidenses OpenAI y su modelo de video a texto Sora», dijo Ma. China tiene el talento tecnológico para marcar la diferencia en la rivalidad de la IA en los próximos años. Un nuevo estudio del grupo de expertos Marco Polo, dirigido por el Instituto Paulson, muestra que EE. UU. alberga el 60% de las principales instituciones de IA, y EE. UU. sigue siendo, con diferencia, la líder El destino del talento de élite en IA es el 57% del total, en comparación con China, el 12%. Pero la investigación encuentra que China aventaja a EE.UU. en algunas otras medidas, incluido estar por delante de EE.UU. en la producción de investigadores de IA de primer nivel, según títulos universitarios, con China con un 47% y EE.UU. rezagado con un 18%. Además, entre los investigadores de IA de primer nivel que trabajan en instituciones estadounidenses, el 38% tiene a China como país de origen, en comparación con el 37% de los EE.UU. Las nuevas entradas al mercado chino de IA también pueden alcanzar una adopción masiva rápidamente. El competidor ChatGPT de Baidu, Ernie Bot, lanzado en agosto de 2023, alcanzó los 100 millones de usuarios a finales de año. Samsung planea integrar Ernie AI de Baidu en sus nuevos teléfonos inteligentes Galaxy S, mientras que en otro desarrollo de alto perfil que habla de las relaciones entre Estados Unidos y China, Apple está en conversaciones con Baidu para suministrar al iPhone 16 la tecnología de inteligencia artificial de generación de la compañía china. Dentro de su actual lista de contendientes de IA, los modelos Ernie Bot de Baidu se consideran entre los más avanzados, según Leong. Varias otras empresas chinas están avanzando, financiadas por importantes actores de su propio mercado tecnológico. Grandes empresas de la nube como Baidu y Alibaba, los actores de redes sociales ByteDance y Tencent, y las empresas de tecnología SenseTime, iFlyTek, Megvii y Horizon Robotics, así como institutos de investigación, están ayudando en este esfuerzo. Moonshot AI, financiado por el gigante chino del comercio electrónico Alibaba y la firma de capital de riesgo Hongshan (anteriormente Sequoia China), está construyendo grandes modelos de lenguaje que pueden manejar entradas de contenido largas. Mientras tanto, el ex presidente de Google China, Kai-Fu Lee, ha desarrollado un modelo de IA de generación de código abierto, 01.AI, financiado por Alibaba y su empresa Sinovation Ventures. Si bien China ha acelerado el desarrollo de su industria local de chips y de la IA avanzada, su desarrollo en IA se ha visto limitado en parte por las restricciones estadounidenses a la exportación de chips de IA de alta gama, un mercado acorralado por Nvidia, como parte de un nuevo campo de batalla por la supremacía tecnológica entre los dos países. Estados Unidos y China. «A pesar de los esfuerzos por desarrollar soluciones autóctonas, los desarrolladores chinos de IA todavía dependen en gran medida del hardware extranjero, particularmente de empresas estadounidenses, lo cual es una vulnerabilidad en el clima geopolítico actual», dijo Bernard Leong, fundador y director ejecutivo de la asesoría tecnológica Analyse Asia en Singapur. Las tensiones actuales entre Estados Unidos y China por la innovación tecnológica y las cuestiones de seguridad nacional están provocando una división en el desarrollo de la IA generacional, siguiendo el patrón de otras tecnologías impactantes atrapadas en las carreras armamentistas tecnológicas de las superpotencias. Dadas las regulaciones y prohibiciones sobre tecnologías sensibles y de vanguardia, el resultado probable son dos ecosistemas paralelos para la generación de IA, uno en Estados Unidos y otro en China. ChatGPT está bloqueado en China, mientras que solo se puede acceder a Ernie Bot de Baidu en los EE. UU. con un número de teléfono celular de China continental. «Las empresas estadounidenses no pueden ir a China y las empresas chinas no pueden ir a Estados Unidos», dijo Xiao. La Secretaria de Comercio de Estados Unidos, Gina Raimondo, ha declarado que el objetivo de las restricciones estadounidenses a las exportaciones de chips de IA es evitar que China adquiera o produzca chips avanzados. A medida que China continental se centra en capacidades locales, las empresas chinas SMIC o Huawei podrían ser una alternativa a Nvidia. Pero el futuro de las alternativas probablemente sea incierto si los controles de exportación excluyen a estas empresas de los diseños más avanzados para la fabricación. Triolo señaló que Huawei desarrolló recientemente una serie de chips de inteligencia artificial como rival de Nvidia. China está avanzando en la aplicación de la IA a determinadas categorías, como la visión por ordenador. «La escasez de chips es muy importante para entrenar modelos fundamentales en los que se necesitan ciertos chips, pero para las aplicaciones, no los necesitas», dijo Ma. La «real aplicación asesina» para la generación de IA, según Triolo, estará en las empresas. que están dispuestos a pagar dinero para aprovechar la tecnología como parte de sus operaciones comerciales. Alibaba se está centrando en integrar la IA en su ecosistema de comercio electrónico. Huawei, si bien compitió con más éxito contra el iPhone de Apple en el mercado de consumo el año pasado, también tiene ambiciones más amplias, desarrollando IA para industrias específicas, incluida la minería, utilizando su hardware interno, dijo Leong. La investigación de Boston Consulting Group sugiere que puede ser un mientras que antes de que este mercado de IA de generación más amplia se extienda fuera de la tecnología. El sesenta por ciento de los 1.400 ejecutivos encuestados están esperando ver cómo se desarrollan las regulaciones de IA genérica, mientras que sólo el 6 por ciento de las empresas han capacitado a sus empleados en herramientas de IA genérica. IA en 2023 después del avance de ChatGPT, y luego modificaciones de algunas medidas. La tecnología de IA de generación de código abierto que muchos desarrolladores chinos utilizan puede fomentar la colaboración a nivel mundial y conducir a conocimientos compartidos a medida que avanza la IA, pero Leong dijo que el código abierto también genera problemas relacionados con garantizar «China quiere asegurarse de que no se derrame contenido. También quiere que sus empresas lideren y están dispuestas a imponer medidas draconianas», dijo Triolo. Las preocupaciones éticas y sociales obstaculizan los avances de la IA en China y en otras regiones, incluido Estados Unidos, como se ve en la batalla por el control de la misión de OpenAI. Dentro de China, hay otro factor que podría frenar la aceleración de la IA, según Leong: mantener el control de las aplicaciones de IA de generación, especialmente en áreas sensibles a los intereses estatales.

Source link

¿Cómo se preparará su empresa para la IA generativa?

Bienvenido. Cuéntanos un poco sobre ti. Esto nos ayudará a proporcionarle contenido personalizado. Nombre Apellido Cargo Nombre de la empresa Tamaño de la empresa Seleccione un tamaño 1 – 4 5 – 9 10 – 24 25 – 49 50 – 99 100 – 249 250 – 499 500 – 999 1000 – 4999 5000 – 9999 9999+ Industria Seleccione una industria Publicidad , Relaciones Públicas y Marketing Aeroespacial y Aviación Agricultura y Ganadería Automotriz Banca, Contabilidad y Servicios Comerciales Financieros Computación y Tecnología Educación: Educación Superior: K-12 Ingeniería y Construcción Entretenimiento y Turismo Alimentos y Bebidas Gobierno: Federal Gobierno: Gobierno Local: Estatal Servicios de salud Seguros Servicios legales Fabricación Medios de comunicación y publicaciones Organizaciones sin fines de lucro Petróleo, gas y minería Productos farmacéuticos, medicamentos y productos químicos Bienes raíces Venta al por menor, mayorista y distribuidores Telecomunicaciones Transporte y envío Servicios públicos Viajes y hotelería Otros Cargando Enviar

Source link

Aprenda a utilizar la IA para su negocio

TL;DR: Descubra cómo las herramientas de inteligencia artificial orientadas al consumidor pueden ayudar a su empresa en el título electrónico avanzado completo ChatGPT y Gemini AI de 2024, ahora por solo $ 29,99. Según un estudio reciente, el 35% de las empresas de todo el mundo ya utilizan la IA, mientras que el 50% planea utilizarla de alguna manera en 2024. Las empresas utilizan la IA para automatizar tareas tediosas, crear contenido, inspirarse para campañas de marketing, gestionar las relaciones con los clientes y mucho más. No es necesario que incorpores la IA a tu negocio, pero puede ayudarte en más formas de las que imaginas. Con el título electrónico avanzado completo de ChatGPT y Gemini AI de 2024, obtendrá un desglose completo de algunas de las herramientas de inteligencia artificial más asequibles y orientadas al consumidor de la actualidad para ayudarlo a descubrir cómo podrían tener sentido para su negocio. Lo que aprenderá Este curso de 10 horas es impartido por Eduonix Learning Solutions (calificación de instructor de 4.0/5 estrellas), líder en educación en línea. Le ayudará a comprender la importancia de la IA generativa y a profundizar en una serie de herramientas de IA, incluidas ChatGPT, Gemini AI, GPT 3.5, GPT 4, Bard, DALL-E 2 y más. Aprenderá cómo aprovechar estas herramientas para impulsar la creatividad, mejorar la productividad y mucho más. A través de los cursos, obtendrás práctica con cada una de las herramientas, explorando las vastas posibilidades en la generación de texto, imágenes, video y audio. Comprenderá las técnicas y metodologías involucradas en la generación de contenido basada en IA y aprenderá cómo aprovechar adecuadamente los modelos para obtener los resultados deseados. Algunos de los proyectos que explorará incluyen marketing de contenidos con IA, generación de imágenes con IA para redes sociales y diseño web, audio y vídeo con IA para fines educativos e informativos, automatización de tareas y más. Vea lo que la IA puede hacer por su negocio. En este momento, puede obtener el título electrónico avanzado 2024 Complete ChatGPT y Gemini AI a la venta por solo $ 29,99 (precio regular: $ 790). Precios y disponibilidad sujetos a cambio.

Source link

Predicciones del director ejecutivo Jensen Huang sobre la ingeniería rápida

Con el anuncio de NVIDIA de AI Enterprise 5.0 y NVIDIA Inference Microservices en la conferencia GTC, el CEO Jensen Huang planea comenzar una era para hacer que la implementación de AI empresarial sea más fácil y más aplicable que nunca, posiblemente mientras cambia la forma principal en que las personas interactúan con las computadoras. La idea de controlar y programar computadoras solo con indicaciones es similar a lo que Humane ha propuesto con su Ai Pin basado en indicaciones, pero Huang la extiende a los desarrolladores y TI, así como a los consumidores: “El trabajo de la computadora es no requerir C++ para será útil”, afirmó Huang durante la sesión de preguntas y respuestas de prensa de NVIDIA GTC celebrada el 19 de marzo en San José, California (Figura A). Figura A El director ejecutivo de NVIDIA, Jensen Huang, habla durante una sesión de preguntas y respuestas con la prensa durante el NVIDIA GTC en San José, California, el 19 de marzo. Imagen: Megan Crouse/TechRepublic El director ejecutivo de NVIDIA, Jensen Huang, habla durante una sesión de preguntas y respuestas con la prensa durante el NVIDIA GTC en San José, California, el 19 de marzo. Imagen: Megan Crouse/TechRepublic Huang: La ingeniería rápida está transformando la programación Cuando se le preguntó si la programación seguirá siendo una habilidad útil en la era de las indicaciones generativas de IA, Huang dijo: «Creo que la gente debería aprender todo tipo de habilidades» y comparó el código. hasta hacer malabares, tocar el piano o aprender cálculo. Sin embargo, Huang dijo: «La programación no será esencial para que usted sea una persona exitosa». VER: Huang anunció una amplia gama de productos NVIDIA para centros de datos, inteligencia artificial empresarial, criptografía y más durante el discurso de apertura de la conferencia GTC. (TechRepublic) La IA generativa, dijo Huang, está “cerrando la brecha tecnológica. No es necesario ser programador de C++ para tener éxito”, afirmó. “Solo hay que ser un ingeniero rápido. ¿Y quién no puede ser un ingeniero puntual? Cuando mi esposa me habla, rápidamente me manipula. … Todos necesitamos aprender a incitar a las IA, pero eso no es diferente a aprender a incitar a los compañeros de equipo”. Huang continuó diciendo: «Pero si alguien quiere aprender a hacerlo (programar), que lo haga porque estamos contratando programadores». PREMIUM: aprenda cómo convertirse en un ingeniero rápido en esta descarga Premium de TechRepublic La ingeniería rápida es una habilidad que cambia rápidamente. ¿La ingeniería rápida reemplazará la programación tradicional cuando se trata de crear IA generativa a partir de IA generativa como sugirió Huang? «No dejaría mi trabajo diario todavía para convertirme en un ingeniero rápido», dijo Chirag Dekate, analista de Gartner, en una llamada a TechRepublic el 19 de marzo. «Desafortunadamente, el mercado se está corrigiendo excesivamente». Y el mercado se está sobrecorregindo ante un aumento en la demanda de lo que solía ser la ingeniería rápida. En una industria que cambia rápidamente, optimizar las indicaciones para lograr que una IA genere el texto correcto puede que ya no sea la forma en que se realiza la ingeniería de indicaciones de IA; en cambio, las indicaciones pueden ser multimodales. Los NIM son notables, dijo Dekate, porque encajan perfectamente la IA generativa en el contexto de multinube híbrida en el que operan muchas empresas. «Lo que NVIDIA está construyendo ahora es una base para las empresas nativas de IA de próxima generación, donde donde quiera que vayan las empresas experimentarán NIM», dijo. Sin embargo, es posible que NVIDIA no sea la empresa que haga realidad la transformación. Dekate señaló a Cognition AI, que la semana pasada presentó a Devin, su “ingeniero de software de IA”, como una señal de que la forma en que se realiza la ingeniería de software puede cambiar en el futuro. Más cobertura de IA de lectura obligada No importa qué nombre termine en el software más común, Dekate dijo que la forma en que los desarrolladores interactúan con la IA generativa cambiará rápidamente. «El ritmo de innovación de la IA generativa continúa acelerándose», afirmó Dekate. “Lo más probable es que no interactuemos con ninguno de estos modelos utilizando nuestras percepciones heredadas. Me refiero a tecnología de hace tres o seis meses como legado. La IA generativa cambia así de rápido”. David Nicholson, director de investigación de The Futurum Group, dijo a TechRepublic por correo electrónico que en un futuro de IA generativa «una instalación con lenguaje humano se convierte en una habilidad informática importante». “Tu título en inglés (o) historia o derecho de repente te ayuda a convertirte en un ingeniero rápido, pero una especialización en ciencias de la computación nunca estará de más”, escribió Nicholson. “No es una exageración de NVIDIA. Es verdaderamente una revolución”. Descargo de responsabilidad: NVIDIA pagó mi pasaje aéreo, alojamiento y algunas comidas para el evento NVIDIA GTC que se llevó a cabo del 18 al 21 de marzo en San José, California.

Source link

Blackwell Architecture acelerará los productos de IA a finales de 2024

La plataforma GPU más nueva de NVIDIA es Blackwell (Figura A), que empresas como AWS, Microsoft y Google planean adoptar para la IA generativa y otras tareas informáticas modernas, anunció el CEO de NVIDIA, Jensen Huang, durante el discurso de apertura en la conferencia NVIDIA GTC el 18 de marzo en San José, California. Figura A La arquitectura NVIDIA Blackwell. Imagen: Los productos basados ​​en NVIDIA Blackwell ingresarán al mercado de los socios de NVIDIA en todo el mundo a fines de 2024. Huang anunció una larga lista de tecnologías y servicios adicionales de NVIDIA y sus socios, hablando de la IA generativa como solo una faceta de la computación acelerada. «Cuando te aceleras, tu infraestructura son las GPU CUDA», dijo Huang, refiriéndose a CUDA, la plataforma informática paralela y el modelo de programación de NVIDIA. «Y cuando eso sucede, es la misma infraestructura que para la IA generativa». Blackwell permite el entrenamiento y la inferencia de modelos de lenguaje grandes. La plataforma Blackwell GPU contiene dos matrices conectadas por una interconexión de chip a chip de 10 terabytes por segundo, lo que significa que cada lado puede funcionar esencialmente como si «las dos matrices pensaran que es un solo chip», dijo Huang. Tiene 208 mil millones de transistores y se fabrica utilizando el proceso TSMC 4NP de 208 mil millones de NVIDIA. Cuenta con un ancho de banda de memoria de 8 TB/S y 20 pentaFLOPS de rendimiento de IA. Para las empresas, esto significa que Blackwell puede realizar entrenamiento e inferencia para modelos de IA escalando hasta 10 billones de parámetros, dijo NVIDIA. Blackwell se ve reforzado por las siguientes tecnologías: La segunda generación de TensorRT-LLM y NeMo Megatron, ambas de NVIDIA. Marcos para duplicar el tamaño de cálculo y modelo en comparación con el motor transformador de primera generación. Computación confidencial con protocolos de cifrado de interfaz nativos para privacidad y seguridad. Un motor de descompresión dedicado para acelerar consultas de bases de datos en análisis de datos y ciencia de datos. En cuanto a la seguridad, Huang dijo que el motor de confiabilidad “realiza una autoprueba, una prueba dentro del sistema, de cada bit de memoria en el chip Blackwell y de toda la memoria conectada a él. Es como si enviáramos el chip Blackwell con su propio probador”. Los productos basados ​​en Blackwell estarán disponibles a través de proveedores de servicios de nube asociados, empresas del programa NVIDIA Cloud Partner y nubes soberanas seleccionadas. La línea de GPU Blackwell sigue a la línea de GPU Grace Hopper, que debutó en 2022 (Figura B). NVIDIA dice que Blackwell ejecutará IA generativa en tiempo real en LLM de billones de parámetros a un costo 25 veces menor y un consumo de energía menor que la línea Hopper. Figura B El director ejecutivo de NVIDIA, Jensen Huang, muestra las GPU Blackwell (izquierda) y Hopper (derecha) en NVIDIA GTC 2024 en San José, California, el 18 de marzo. Imagen: Megan Crouse/TechRepublic El superchip NVIDIA GB200 Grace Blackwell conecta varias GPU Blackwell junto con el Blackwell GPUs, la compañía anunció el superchip NVIDIA GB200 Grace Blackwell, que vincula dos GPU NVIDIA B200 Tensor Core a la CPU NVIDIA Grace, proporcionando una nueva plataforma combinada para la inferencia LLM. El Superchip NVIDIA GB200 Grace Blackwell se puede vincular con las plataformas Ethernet NVIDIA Quantum-X800 InfiniBand y Spectrum-X800 recientemente anunciadas por la compañía para velocidades de hasta 800 GB/S. El GB200 estará disponible en NVIDIA DGX Cloud y a través de instancias de AWS, Google Cloud y Oracle Cloud Infrastructure a finales de este año. El nuevo diseño de servidor mira hacia modelos de IA de billones de parámetros El GB200 es un componente del recientemente anunciado GB200 NVL72, un diseño de servidor a escala de rack que incluye 36 CPU Grace y 72 GPU Blackwell para 1,8 exaFLOP de rendimiento de IA. NVIDIA espera posibles casos de uso para LLM masivos de billones de parámetros, incluida la memoria persistente de conversaciones, aplicaciones científicas complejas y modelos multimodales. El GB200 NVL72 combina la quinta generación de conectores NVLink (5000 cables NVLink) y el superchip GB200 Grace Blackwell para obtener una enorme cantidad de potencia informática que Huang llama «un sistema de IA exoflops en un solo bastidor». «Eso es más que el ancho de banda promedio de Internet… básicamente podríamos enviar todo a todo el mundo», dijo Huang. «Nuestro objetivo es reducir continuamente el coste y la energía (están directamente relacionados entre sí) de la informática», afirmó Huang. Para enfriar el GB200 NVL72 se necesitan dos litros de agua por segundo. La próxima generación de NVLink ofrece una arquitectura de centro de datos acelerada. La quinta generación de NVLink proporciona un rendimiento bidireccional de 1,8 TB/s por comunicación GPU entre hasta 576 GPU. Esta iteración de NVLink está pensada para utilizarse en los LLM complejos más potentes disponibles en la actualidad. «En el futuro, los centros de datos serán considerados como una fábrica de inteligencia artificial», dijo Huang. Presentación de los microservicios de inferencia de NVIDIA Otro elemento de la posible «fábrica de IA» es el microservicio de inferencia de NVIDIA, o NIM, que Huang describió como «una nueva forma de recibir y empaquetar software». Los NIM de NVIDIA son microservicios que contienen API, código específico de dominio, motores de inferencia optimizados y tiempo de ejecución empresarial necesarios para ejecutar IA generativa. Estos microservicios nativos de la nube se pueden optimizar según la cantidad de GPU que utiliza el cliente y se pueden ejecutar en la nube o en un centro de datos propio. Los NIM permiten a los desarrolladores utilizar API, NVIDIA CUDA y Kubernetes en un solo paquete. VER: Python sigue siendo el lenguaje de programación más popular según el índice TIOBE. (TechRepublic) Los NIM aprovechan la IA para crear IA, simplificando parte del trabajo pesado, como la inferencia y la capacitación, necesarios para crear chatbots. A través de bibliotecas CUDA de dominio específico, los NIM se pueden personalizar para industrias muy específicas, como la atención médica. En lugar de escribir código para programar una IA, dijo Huang, los desarrolladores pueden “reunir un equipo de IA” que trabajen en el proceso dentro del NIM. «Queremos construir chatbots (copilotos de IA) que funcionen junto con nuestros diseñadores», dijo Huang. Los NIM estarán disponibles a partir del 18 de marzo. Los desarrolladores pueden experimentar con los NIM sin costo alguno y ejecutarlos a través de una suscripción a NVIDIA AI Enterprise 5.0. Los NIM están disponibles en Amazon SageMaker, Google Kubernetes Engine y Microsoft Azure AI, y pueden interoperar con los marcos de IA Deepset, LangChain y LlamaIndex. Nuevas herramientas lanzadas para NVIDIA AI Enterprise en la versión 5.0 NVIDIA lanzó la versión 5.0 de AI Enterprise, su plataforma de implementación de IA destinada a ayudar a las organizaciones a implementar productos de IA generativa para sus clientes. 5.0 de NVIDIA AI Enterprise agrega lo siguiente: NIM. Microservicios CUDA-X para una amplia variedad de casos de uso de IA acelerada por GPU. AI Workbench, un conjunto de herramientas para desarrolladores. Soporte para la plataforma Red Hat OpenStack. Soporte ampliado para nuevas GPU NVIDIA, hardware de red y software de virtualización. El operador de modelo de lenguaje grande de generación aumentada de recuperación de NVIDIA se encuentra ahora en acceso temprano para AI Enterprise 5.0. AI Enterprise 5.0 está disponible a través de Cisco, Dell Technologies, HP, HPE, Lenovo, Supermicro y otros proveedores. Otros anuncios importantes de NVIDIA en GTC 2024 Huang anunció una amplia gama de nuevos productos y servicios en computación acelerada e inteligencia artificial generativa durante el discurso de apertura de NVIDIA GTC 2024. NVIDIA anunció cuPQC, una biblioteca utilizada para acelerar la criptografía poscuántica. Los desarrolladores que trabajan en criptografía poscuántica pueden comunicarse con NVIDIA para obtener actualizaciones sobre la disponibilidad. La serie X800 de conmutadores de red de NVIDIA acelera la infraestructura de IA. En concreto, la serie X800 contiene los conmutadores Ethernet NVIDIA Quantum-X800 InfiniBand o NVIDIA Spectrum-X800, el conmutador NVIDIA Quantum Q3400 y el NVIDIA ConnectXR-8 SuperNIC. Los conmutadores X800 estarán disponibles en 2025. Las principales asociaciones detalladas durante la conferencia magistral de NVIDIA incluyen: La plataforma de IA de pila completa de NVIDIA estará en Enterprise AI de Oracle a partir del 18 de marzo. AWS brindará acceso a las instancias Amazon EC2 basadas en GPU NVIDIA Grace Blackwell y a NVIDIA DGX Cloud con seguridad Blackwell. NVIDIA acelerará Google Cloud con la plataforma informática NVIDIA Grace Blackwell AI y el servicio NVIDIA DGX Cloud, que llegarán a Google Cloud. Google aún no ha confirmado una fecha de disponibilidad, aunque es probable que sea a finales de 2024. Además, la plataforma DGX Cloud con tecnología NVIDIA H100 estará disponible de forma general en Google Cloud a partir del 18 de marzo. Oracle utilizará NVIDIA Grace Blackwell en su OCI Supercluster, OCI Compute y NVIDIA DGX Cloud en Oracle Cloud Infrastructure. Algunos servicios soberanos de IA combinados de Oracle y NVIDIA estarán disponibles a partir del 18 de marzo. Microsoft adoptará el Superchip NVIDIA Grace Blackwell para acelerar Azure. Se puede esperar la disponibilidad más adelante en 2024. Dell utilizará la infraestructura de inteligencia artificial y el paquete de software de NVIDIA para crear Dell AI Factory, una solución empresarial de inteligencia artificial de extremo a extremo, disponible a partir del 18 de marzo a través de canales tradicionales y Dell APEX. En un momento futuro no revelado, Dell utilizará el superchip NVIDIA Grace Blackwell como base para una arquitectura de refrigeración líquida, de alta densidad y a escala de rack. El Superchip será compatible con los servidores PowerEdge de Dell. SAP agregará capacidades de generación aumentada de recuperación de NVIDIA a su copiloto Joule. Además, SAP utilizará NIM de NVIDIA y otros servicios conjuntos. «Toda la industria se está preparando para Blackwell», dijo Huang. Competidores de los chips de IA de NVIDIA NVIDIA compite principalmente con AMD e Intel en lo que respecta al suministro de IA empresarial. Qualcomm, SambaNova, Groq y una amplia variedad de proveedores de servicios en la nube juegan en el mismo espacio en lo que respecta a la inferencia y el entrenamiento de IA generativa. AWS tiene sus propias plataformas de inferencia y formación: Inferentia y Trainium. Además de asociarse con NVIDIA en una amplia variedad de productos, Microsoft tiene su propio chip de inferencia y entrenamiento de IA: el Maia 100 AI Accelerator en Azure. Descargo de responsabilidad: NVIDIA pagó mi pasaje aéreo, alojamiento y algunas comidas para el evento NVIDIA GTC que se llevó a cabo del 18 al 21 de marzo en San José, California.

Source link

Las fallas presupuestarias y de Robodeuda hacen que el gobierno australiano dude sobre la IA orientada a los ciudadanos

El gobierno australiano ve el valor de la IA generativa en los gobiernos locales, estatales y federales. Sin embargo, las restricciones de gasto inusualmente largas y las preocupaciones sobre los desastres de la automatización están frenando la adopción de la IA, al menos en términos de soluciones orientadas a los ciudadanos. Según una encuesta de Gartner entre CIO de los gobiernos de APAC (con Australia justo en el medio de la tendencia), la IA/aprendizaje automático y la IA generativa son las dos mayores prioridades que se implementarán para 2026 (Figura A). Y, sin embargo, otras presiones están haciendo que las agencias gubernamentales duden en adoptar la IA en áreas que el gobierno australiano considera de importancia crítica. Figura A: Las tecnologías que los CIO de los gobiernos de APAC esperan implementar para 2026. Imagen: Gartner Por ejemplo, si bien la investigación de Gartner muestra que el 84% de los CIO consideran que la inversión para sobresalir en la experiencia del ciudadano es una prioridad máxima (Figura B), menos del 25% de las organizaciones gubernamentales tendrán servicios generativos de cara al ciudadano habilitados por IA para 2027. Figura B: Las tres principales prioridades de las agencias gubernamentales de APAC. Imagen: Gartner La desconexión del gobierno australiano entre el deseo de implementar la IA y la capacidad de lograr resultados Como dijo Dean Lacheca, vicepresidente y analista de Gartner, en una entrevista con TechRepublic, existe escepticismo público en torno a los grandes modelos públicos de aprendizaje, con preocupaciones sobre la privacidad, la seguridad y la preparación de los datos. impactando la velocidad de adopción de la IA. Este es un tema particularmente delicado en Australia, donde la automatización, incluida la IA, dentro de los servicios gubernamentales ha causado daños materiales. En consecuencia, existe una desconfianza inherente hacia cualquier aplicación que se considere que automatiza las interacciones con los ciudadanos en todo el gobierno. Lo más notable es que, si bien no fue una aplicación de la IA, el escándalo de la “Robodeuda” que afectó tan significativamente a los australianos dio lugar a una Comisión Real tras un cambio de gobierno. La automatización que estuvo en el centro de esa controversia ha hecho que muchas agencias gubernamentales duden en anunciar al público que están explorando el uso de la IA. «Esa asociación con la automatización no se expresa abiertamente, pero el sentimiento subyacente es que las agencias gubernamentales son conscientes de que hay mucho riesgo para su reputación si se equivocan», dijo Lacheca. «Existe cierta frustración a nivel ejecutivo sobre por qué no pueden avanzar más rápido en el espacio de la IA, pero hay validez en el enfoque conservador de los primeros pasos y en pensar completamente en los casos de uso». Los presupuestos ajustados también tienen un impacto en la adopción de IA por parte del gobierno australiano. Este conservadurismo se ve agravado aún más por la prolongada austeridad en el gasto gubernamental en TI, que según Lacheca está impactando los tipos de proyectos que están recibiendo luz verde. Se comprende la necesidad de inversión, dijo, pero los líderes que dan luz verde a los proyectos se centran totalmente en la productividad, la eficacia y un rápido retorno de la inversión. Dado que la IA es un área nueva para muchos CIO y sus equipos en el gobierno, y que la IA requiere transformación y nuevos enfoques de la tecnología, encontrar y luego articular los proyectos adecuados que puedan entregarse rápidamente puede ser un desafío. “Debido a que los objetivos de los proyectos tienden a ser relativamente modestos, en la búsqueda de un rápido retorno de la inversión, también existe una parte educativa que los equipos de TI deben realizar con el ejecutivo”, dijo Lacheca. “A menudo escuchamos elementos de frustración como ‘mi hijo adolescente está en casa usando ChatGPT, ¿por qué nos complicas más las cosas?’ «Por lo tanto, gestionar las expectativas de lo que se puede lograr con la tecnología, dado el enfoque en objetivos inmediatos, y superar las dudas en torno a los servicios de cara al ciudadano es parte del proceso con la adopción gubernamental de la IA en este momento». Más cobertura de Australia La solución de Gartner: centrarse primero en entregar aplicaciones internas Según Gartner, la solución a estos desafíos con la adopción de IA es comenzar entregando aplicaciones que no estén orientadas a los ciudadanos pero que puedan respaldar ganancias de productividad dentro de la organización interna. La fruta “mañana” permite a las agencias y departamentos gubernamentales evitar los riesgos percibidos asociados con la IA en los servicios orientados a los ciudadanos, al tiempo que desarrollan los conocimientos y habilidades críticos que se necesitan para desarrollar estrategias de IA más ambiciosas. Las agencias también deben generar confianza y mitigar los riesgos asociados mediante el establecimiento de marcos transparentes de gobernanza y garantía de la IA para las capacidades de IA desarrolladas y adquiridas internamente, añade la guía de Gartner. «Hay mucho que las organizaciones gubernamentales deben hacer para dar pasos hacia la IA», dijo Lacheca. “Para un caso de uso, por ejemplo, una agencia podría querer resumir un conjunto de datos, pero esos datos contienen información personal y tal vez no tengan las etiquetas de metadatos correctas. Quizás quieran analizar eso. “Otros buscan soluciones en la nube donde los datos nunca abandonan su mundo, y otros buscan el enfoque de ‘vidrieras’ que garantizará un nivel de ofuscación de los datos al salir como estrategia para proteger la privacidad. Hay mucha madurez arquitectónica en la forma en que se implementan las estrategias de IA, por lo que las organizaciones deberían buscar desarrollar estas capacidades antes de aplicarlas a implementaciones públicas”, añadió. Cómo deberían buscar los socios para involucrar al gobierno de Australia en materia de IA Estas tensiones internas también afectarán a los socios de las agencias del gobierno australiano. Hay apetito por la IA, pero lograr un paso decisivo y ayudar a implementar soluciones significa comprender que la austeridad en los presupuestos gubernamentales es inusualmente prolongada y que el conservadurismo sobre las posibles consecuencias es más sensible de lo que podría ser el caso en otros sectores. «Los próximos pasos que el gobierno podría tomar probablemente serán mucho más lentos que los de algunas de sus contrapartes comerciales, porque su apetito por el riesgo tiene que ser diferente», dijo Lacheca. Para los profesionales de TI que trabajan en y en asociación con agencias gubernamentales, las recomendaciones de Gartner sobre cómo dar un paso adelante con la IA se reducen a poder demostrar un rápido retorno de la inversión con un riesgo mínimo para los datos públicos y las interacciones. Los socios que puedan lograrlo estarán en una posición sólida cuando el gobierno comience a acelerar la adopción para cumplir sus ambiciones a largo plazo.

Source link

Página 1 de 8

Funciona con WordPress & Tema de Anders Norén