blackdovfx/Getty ImagesSe ha publicado un nuevo estándar global para ayudar a las organizaciones a gestionar los riesgos de integrar grandes modelos de lenguaje (LLM) en sus sistemas y abordar las ambigüedades en torno a estos modelos. El marco ofrece directrices para diferentes fases a lo largo del ciclo de vida de los LLM, que abarcan «desarrollo, implementación y mantenimiento», según la Academia Mundial de Tecnología Digital (WDTA), que publicó el documento el viernes. La organización no gubernamental (ONG) con sede en Ginebra opera bajo las Naciones Unidas y se estableció el año pasado para impulsar el desarrollo de estándares en el ámbito digital. También: Entender RAG: Cómo integrar LLM de IA generativa con su conocimiento empresarial»El estándar enfatiza un enfoque de múltiples capas para la seguridad, que abarca capas de red, sistema, plataforma y aplicación, modelo y datos», dijo WDTA. «Aprovecha conceptos clave como la lista de materiales de aprendizaje automático, la arquitectura de confianza cero y la supervisión y auditoría continuas. Estos conceptos están diseñados para garantizar la integridad, disponibilidad, confidencialidad, capacidad de control y confiabilidad de los sistemas LLM a lo largo de su cadena de suministro». El nuevo marco, denominado estándar AI-STR-03, tiene como objetivo identificar y evaluar los desafíos con la integración de tecnologías de inteligencia artificial (IA), específicamente LLM, dentro de los ecosistemas de TI actuales, dijo WDTA. Esto es esencial ya que estos modelos de IA pueden usarse en productos o servicios operados total o parcialmente por terceros, pero no administrados por ellos. Además: los líderes empresariales están perdiendo la fe en TI, según este estudio de IBM. He aquí el motivoLos requisitos de seguridad relacionados con la estructura del sistema de LLM, denominados requisitos de seguridad de la cadena de suministro, abarcan requisitos para la capa de red, la capa de sistema, la capa de plataforma y aplicación, la capa de modelo y la capa de datos. Estos garantizan que el producto y sus sistemas, componentes, modelos, datos y herramientas estén protegidos contra la manipulación o el reemplazo no autorizado durante todo el ciclo de vida de los productos LLM. WDTA dijo que esto implica la implementación de controles y monitoreo continuo en cada etapa de la cadena de suministro. También aborda vulnerabilidades comunes en la seguridad del middleware para evitar el acceso no autorizado y salvaguardas contra el riesgo de envenenar los datos de entrenamiento utilizados por los ingenieros. Además, aplica una arquitectura de confianza cero para mitigar las amenazas internas. Además: Las pautas de seguridad proporcionan la primera capa necesaria de protección de datos en la fiebre del oro de la IA «Al mantener la integridad de cada etapa, desde la adquisición de datos hasta la implementación del proveedor, los consumidores que utilizan LLM pueden asegurarse de que los productos LLM sigan siendo seguros y confiables», dijo WDTA. Los requisitos de seguridad de la cadena de suministro LLM también abordan la necesidad de disponibilidad, confidencialidad, control, confiabilidad y visibilidad. Estos trabajan colectivamente para garantizar que los datos transmitidos a lo largo de la cadena de suministro no se divulguen a personas no autorizadas, lo que en última instancia establece la transparencia, para que los consumidores comprendan cómo se administran sus datos. También proporciona visibilidad de la cadena de suministro para que, por ejemplo, si un modelo se actualiza con nuevos datos de entrenamiento, el estado del modelo de IA, antes y después de que se agregaran los datos de entrenamiento, esté debidamente documentado y sea rastreable. Abordar la ambigüedad en torno a los LLM El nuevo marco fue redactado y revisado por un grupo de trabajo que comprende varias empresas e instituciones tecnológicas, entre ellas Microsoft, Google, Meta, Cloud Security Alliance Greater China Region, Nanyang Technological University en Singapur, Tencent Cloud y Baidu. Según la WDTA, es el primer estándar internacional que se ocupa de la seguridad de la cadena de suministro de los LLM. Además: La transparencia es muy deficiente en medio del creciente interés por la IA La cooperación internacional en estándares relacionados con la IA es cada vez más crucial a medida que la IA continúa avanzando e impactando en varios sectores en todo el mundo, agregó la WDTA. «Lograr una IA confiable es un esfuerzo global, que exige la creación de herramientas y procesos de gobernanza efectivos que trasciendan las fronteras nacionales», dijo la ONG. «La estandarización global desempeña un papel crucial en este contexto, proporcionando una vía clave para promover la alineación en las mejores prácticas y la interoperabilidad de los regímenes de gobernanza de la IA». Además: Las empresas necesitarán gobernanza de la IA a medida que aumente el número de modelos de lenguajes de gran tamaño. Lars Ruddigkeit, estratega tecnológico de Microsoft, dijo que el nuevo marco no pretende ser perfecto, pero proporciona la base para un estándar internacional. «Queremos establecer cuál es el mínimo que se debe lograr», dijo Ruddigkeit. «Actualmente hay mucha ambigüedad e incertidumbre en torno a los LLM y otras tecnologías emergentes, lo que dificulta que las instituciones, las empresas y los gobiernos decidan cuál sería un estándar significativo. El estándar de la cadena de suministro de la WDTA intenta encaminar este primer camino hacia un futuro seguro».