Cuando ChatGPT irrumpió en escena, creció a 100.000.000 de usuarios en tres meses. ChatGPT, el crecimiento más rápido jamás visto en un nuevo producto, mostró el poder y el potencial de los grandes modelos de lenguaje, los LLM. Google, Facebook y Anthropic rápidamente siguieron sus propios modelos. Las empresas que han adoptado plenamente estrategias, tecnologías y procesos de IA están acelerando el avance, mientras que las rezagadas corren el riesgo de quedarse atrás. Los motores de IA más potentes hasta la fecha son los LLM, y las empresas con visión de futuro están desarrollando estrategias para aplicar esta herramienta revolucionaria. Pero, ¿son seguros los modelos de lenguaje grandes? Esta es la pregunta más común que plantean los clientes. El miedo y la confusión son muy válidos. ¿Sabes que no necesitas compartir datos para filtrar información? Simplemente hacer una pregunta en ChatGPT puede revelar conocimiento interno sobre los planes futuros de su organización. Microsoft ha aconsejado a sus empleados que eviten el uso de ChatGPT debido a riesgos de seguridad, a pesar de ser el mayor accionista de OpenAI. ¿Cómo aprovechar los LLM de forma segura y responsable? Los LLM privados son modelos que se ejecutan dentro de la infraestructura de TI interna de una organización sin depender de conexiones externas. Al mantener estos modelos dentro de su propia infraestructura de TI segura, se pueden proteger el conocimiento y los datos de la empresa. Los modelos privados necesitan la aceptación de todas las partes interesadas de la organización y se debe realizar una evaluación de riesgos antes de su implementación. Cuando se implementen, las empresas deben tener políticas bien definidas para su uso. Al igual que con cualquier recurso de TI crítico, es necesario implementar un control de acceso de los empleados clave, especialmente cuando manejan información confidencial. Las organizaciones que deben cumplir con estándares, como ITAR (Reglamento sobre tráfico internacional de armas), GDPR (Reglamento general de protección de datos) y HIPPA (Ley de responsabilidad y portabilidad de seguros médicos), deben considerar si sus LLM cumplen. Por ejemplo, se ha sorprendido a abogados inconscientes preparando casos en ChatGPT, una clara violación del privilegio abogado-cliente. Con los modelos privados, la empresa puede controlar el entrenamiento del modelo, asegurando que su conjunto de datos de entrenamiento sea apropiado y que el modelo que cree cumpla con los estándares. Dado que los modelos manejarán de forma segura datos confidenciales cuando se ejecuten, no retendrán ninguna información dentro de su memoria a corto plazo, conocida como contexto. Esta capacidad de dividir el conocimiento entre almacenamiento permanente y almacenamiento a corto plazo proporciona una gran flexibilidad en el diseño de sistemas que cumplan con los estándares. Otra gran ventaja que tienen los modelos privados sobre ChatGPT es que pueden aprender «conocimientos tribales» dentro de la organización que a menudo están encerrados en correos electrónicos, documentos internos, sistemas de gestión de proyectos y otras fuentes de datos. Este rico almacén capturado en su modelo privado mejora la capacidad del modelo para operar dentro de su empresa. Está creciendo una división entre los «que tienen IA» y los «que no tienen». Pero como ocurre con cualquier tecnología nueva, es importante comprender los riesgos y recompensas en toda la organización antes de lanzarse a una solución. Con una buena gestión de proyectos y la participación de todas las partes interesadas, las empresas pueden implementar la IA de forma segura y eficaz a través de LLM privados, proporcionando la forma más segura de implementar agentes de IA responsables. Oliver King-Smith es director ejecutivo de smartR AI, una empresa que desarrolla aplicaciones basadas en la evolución de interacciones, cambios de comportamiento y detección de emociones.

Source link