Viñetas resumidas: • Google Cloud celebró su primera cumbre anual en Tobacco Docks en el este de Londres (Inglaterra) en octubre de 2024. • Los anuncios incluyeron la residencia de datos ampliada de Google para ayudar a los clientes a realizar el procesamiento y el almacenamiento de datos Flash ML de Gemini 1.5 completamente en el Reino Unido, si manejan datos sensibles que no pueden salir del país. Google Cloud celebró su primera cumbre anual en Tobacco Docks en el este de Londres (Inglaterra) en octubre de 2024. El evento incluyó conferencias magistrales, talleres, demostraciones y la presencia destacada de un apasionante ecosistema de startups. , impulsado por el lanzamiento de Google Cloud Startup Hub, un nuevo espacio comunitario para desarrolladores y emprendedores. Muchas empresas en el Reino Unido y Europa utilizan Google Cloud Platform (GCP), dijo la presidenta de Google Cloud en EMEA, Tara Brady, durante la cumbre. Esto incluye alrededor del 90% de los unicornios (startups valoradas en más de mil millones de dólares). Brady destacó el papel inicial de Google en la ingeniería de tecnologías GenAI, que la empresa está invocando para posicionarse como una empresa “AI first” en la empresa. Procesadores de IA Google enfatizó su estrategia de IA integrada verticalmente, desde chips de silicio, nube, plataforma, modelos y aplicaciones. A nivel de infraestructura pura, las actualizaciones incluyeron una mayor disponibilidad de Axion, la primera CPU basada en ARM de Google como parte de su arquitectura de chipset patentada. El objetivo es ofrecer a los clientes una amplia gama de opciones a nivel de chipset, que abarca desde GPU y TPU (unidades de procesamiento tensorial) hasta CPU. En el frente de la GPU, la compañía admite los chips Blackwell de Nvidia. En el lado de TPU, el lanzamiento por parte de Google de su arquitectura personalizada de sexta generación, Trillium, trae consigo un aumento de 4,7 veces en el rendimiento informático máximo por chip en comparación con la generación anterior, afirma la compañía. El chip está disponible para los clientes de Google Cloud, pero no se les vende directamente: solo pueden acceder a Trillium a través de GCP. Los TPU tienen una larga tradición en IA, que se remonta a 2015, y se consideran una de las pocas alternativas viables a los procesadores de Nvidia. Cuando se trata de IA, la tecnología de silicio está directamente relacionada con la rentabilidad, y utilizar la arquitectura de chipset adecuada para cada caso de uso específico es primordial: los modelos más avanzados de la familia Gemini tendrán requisitos muy diferentes en comparación con la inferencia de bajo costo de una Modelo de lenguaje pequeño local implementado en el borde. Al ofrecer una amplia gama de alternativas, Google intenta atender a empresas con diferentes necesidades de IA. Nube local Google Cloud anunció su oferta local, Google Distributed Cloud (GDC), para empresas en industrias altamente reguladas, como bancos centrales en finanzas o empresas nacionales de servicios públicos de infraestructura crítica. GDC es un portafolio de soluciones de hardware y software para ayudar a los clientes a incorporar Google Cloud a su centro de datos o a cualquier otra ubicación si tienen requisitos especiales de soberanía, cumplimiento y/o latencia. Las organizaciones pueden escalar desde servidores de un solo nodo 1R en implementaciones de borde hasta cientos de racks en centros de datos masivos. GDC ofrece interoperabilidad con otras plataformas y flexibilidad para admitir tecnologías de HPE, Dell Technologies, NetApp, Cisco, Palo Alto Networks, Nvidia y otros. Agentic AI Google tiene 130 modelos en la plataforma Vertex AI para ayudar a las organizaciones a comenzar con Agentic AI. Vertex AI Agent Builder (lanzado por primera vez en abril de 2024) es el enfoque de Google para la IA agente, que ha conquistado el mundo de la IA (consulte “DreamForce 2024: Tableau Einstein marca un cambio estratégico para Salesforce gracias a las capacidades de Agentforce“). Agentic AI representa un paso adelante con respecto a los grandes modelos de lenguaje (LLM). Mientras que los LLM tradicionales se centran en la generación de contenidos, los agentes de IA se centran en la toma de decisiones. Los LLM generan respuestas basadas en los datos en los que fueron capacitados y son estáticas; Los agentes de IA pueden interactuar dinámicamente con su entorno externo, eligiendo los puntos de datos correctos para recopilar para una tarea específica. Debido a que elimina la necesidad de crear indicaciones, la IA agente ayuda a las empresas a acercarse a resolver el enigma del ser humano en el circuito (HITL). Inteligencia empresarial impulsando la IA Como parte de la estrategia de Google Cloud para fortalecer el vínculo entre los datos y la IA, anuncios importantes incluyeron la integración de BigQuery con los modelos Gemini y la disponibilidad en Looker Conversational Analytics. La compañía también lanzó la edición empresarial de Gemini Code Assist. La herramienta tiene una interfaz de lenguaje natural y está disponible en muchos entornos de desarrollo integrados populares, como Visual Studio Code, JetBrains IDE, Cloud Workstations, Cloud Shell Editor y lenguajes de programación compatibles como Java, JavaScript, Python, C, C++, Go, PHP y SQL. Otras actualizaciones incluyeron nuevas capacidades de datos sintéticos, con BigQuery Dataframes. Así:Me gusta Cargando… Relacionado