¿Quieres ideas más inteligentes en tu bandeja de entrada? Regístrese en nuestros boletines semanales para obtener solo lo que importa a los líderes de IA, datos y seguridad empresariales. Suscríbete ahora AWS busca extender su posición de mercado con actualizaciones a Sagemaker, su aprendizaje automático y la plataforma de capacitación en modelo de IA e inferencia, agregando nuevas capacidades de observabilidad, entornos de codificación conectados y gestión del rendimiento del clúster de GPU. Sin embargo, AWS continúa enfrentando la competencia de Google y Microsoft, que también ofrecen muchas características que ayudan a acelerar la capacitación e inferencia de IA. Sagemaker, que se transformó en un centro unificado para integrar fuentes de datos y acceder a herramientas de aprendizaje automático en 2024, agregará características que proporcionan información sobre por qué el rendimiento del modelo ralentiza y ofrece a los clientes de AWS más control sobre la cantidad de cómputo asignado para el desarrollo del modelo. Otras nuevas características incluyen la conexión de entornos de desarrollo integrados locales (IDES) a Sagemaker, por lo que los proyectos de IA escritos localmente se pueden implementar en la plataforma. El gerente general de Sagemaker, Ankur Mehrotra, dijo a VentureBeat que muchas de estas nuevas actualizaciones se originaron en los propios clientes. «Un desafío que hemos visto a nuestros clientes enfrentar mientras desarrollan modelos Gen AI es que cuando algo sale mal o cuando algo no funciona según las expectativas, es realmente difícil encontrar lo que está sucediendo en esa capa de la pila», dijo Mehrotrra. La observabilidad de Sagemaker Hyperpod permite a los ingenieros examinar las diversas capas de la pila, como la capa de cómputo o la capa de red. Si algo sale mal o los modelos se vuelven más lentos, Sagemaker puede alertarlos y publicar métricas en un tablero. Mehrotra señaló un problema real que enfrentó su propio equipo mientras entrenaba nuevos modelos, donde el código de entrenamiento comenzó a enfatizar las GPU, causando fluctuaciones de temperatura. Dijo que sin las últimas herramientas, los desarrolladores habrían tomado semanas para identificar la fuente del problema y luego solucionarlo. Connected IDES Sagemaker ya ofreció dos formas para que los desarrolladores de IA entrenen y ejecuten modelos. Tenía acceso a IDES completamente administrados, como Jupyter Lab o editor de código, para ejecutar sin problemas el código de capacitación en los modelos a través de Sagemaker. Entendiendo que otros ingenieros prefieren usar sus IDE locales, incluidas todas las extensiones que han instalado, AWS también les permitió ejecutar su código en sus máquinas. Sin embargo, Mehrotra señaló que significaba que los modelos codificados localmente solo se ejecutaban localmente, por lo que si los desarrolladores querían escalar, demostró ser un desafío significativo. AWS agregó una nueva ejecución remota segura para permitir que los clientes continúen trabajando en su IDE preferido, ya sea local o administrado, y conecte OT a Sagemaker. «Por lo tanto, esta capacidad ahora les da lo mejor de ambos mundos donde si lo desean, pueden desarrollarse localmente en un IDE local, pero luego en términos de ejecución de tareas reales, pueden beneficiarse de la escalabilidad de Sagemaker», dijo. Más flexibilidad en Compute AWS lanzó Sagemaker Hyperpod en diciembre de 2023 como un medio para ayudar a los clientes a administrar grupos de servidores para modelos de capacitación. Similar a proveedores como CoreWeave, HyperPod permite a los clientes de Sagemaker dirigir el poder de cálculo no utilizado a su ubicación preferida. HyperPod sabe cuándo programar el uso de GPU en función de los patrones de demanda y permite a las organizaciones equilibrar sus recursos y costos de manera efectiva. Sin embargo, AWS dijo que muchos clientes querían el mismo servicio de inferencia. Muchas tareas de inferencia ocurren durante el día en que las personas usan modelos y aplicaciones, mientras que la capacitación generalmente está programada durante las horas de menor actividad. Mehrotra señaló que incluso en la inferencia mundial, los desarrolladores pueden priorizar las tareas de inferencia en las que HyperPod debe centrarse. Laurent Sifre, cofundador y CTO de AI Agent Company H AI, dijo en una publicación de blog de AWS que la compañía usó Sagemaker HyperPod al construir su plataforma de agente. «Esta transición perfecta de la capacitación a la inferencia simplificó nuestro flujo de trabajo, redució el tiempo a la producción y ofreció un rendimiento constante en entornos en vivo», dijo Sifre. AWS y la competencia Amazon pueden no estar ofreciendo los modelos de base más splashiest como sus rivales de proveedores en la nube, Google y Microsoft. Aún así, AWS se ha centrado más en proporcionar la columna vertebral de la infraestructura para que las empresas creen modelos, aplicaciones o agentes de IA. Además de Sagemaker, AWS también ofrece Bedrock, una plataforma diseñada específicamente para la construcción de aplicaciones y agentes. Sagemaker ha existido durante años, inicialmente sirviendo como un medio para conectar herramientas de aprendizaje automático dispares a los lagos de datos. Cuando comenzó el boom generativo de IA, los ingenieros de IA comenzaron a usar Sagemaker para ayudar a entrenar modelos de idiomas. Sin embargo, Microsoft está presionando para su ecosistema de tela, con el 70% de las compañías Fortune 500 que lo adoptan, para convertirse en un líder en los datos y el espacio de aceleración de IA. Google, a través de Vertex AI, ha hecho en silencio en la adopción de AI Enterprise. AWS, por supuesto, tiene la ventaja de ser el proveedor de nubes más utilizado. Cualquier actualización que haga que sus muchas plataformas de infraestructura de IA sean más fáciles de usar siempre será un beneficio. Insights diarias sobre casos de uso de negocios con VB diariamente Si desea impresionar a su jefe, VB Daily lo tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo. Lea nuestra Política de privacidad Gracias por suscribirse. Mira más boletines de VB aquí. Ocurrió un error.