¡VB Transform 2024 regresa este julio! Más de 400 líderes empresariales se reunirán en San Francisco del 9 al 11 de julio para profundizar en el avance de las estrategias GenAI y participar en debates que invitan a la reflexión dentro de la comunidad. Descubre aquí cómo puedes asistir. Apple presentó hoy un nuevo e innovador servicio llamado Private Cloud Compute (PCC), diseñado específicamente para el procesamiento de IA privado y seguro en la nube. PCC representa un salto generacional en seguridad en la nube, extendiendo la privacidad y seguridad líderes en la industria de los dispositivos Apple a la nube. Con silicio personalizado de Apple, un sistema operativo reforzado y medidas de transparencia sin precedentes, PCC establece un nuevo estándar para proteger los datos de los usuarios en los servicios de inteligencia artificial en la nube. La necesidad de privacidad en la IA en la nube A medida que la inteligencia artificial (IA) se entrelaza más con nuestra vida diaria, los riesgos potenciales para nuestra privacidad crecen exponencialmente. Los sistemas de inteligencia artificial, como los utilizados para asistentes personales, motores de recomendación y análisis predictivos, requieren cantidades masivas de datos para funcionar de manera efectiva. Estos datos a menudo incluyen información personal altamente confidencial, como nuestros historiales de navegación, datos de ubicación, registros financieros e incluso datos biométricos como escaneos de reconocimiento facial. Tradicionalmente, al utilizar servicios de inteligencia artificial basados ​​en la nube, los usuarios tenían que confiar en que el proveedor del servicio aseguraría y protegería adecuadamente sus datos. Sin embargo, este modelo basado en la confianza tiene varios inconvenientes importantes: Prácticas de privacidad opacas: es difícil, si no imposible, para los usuarios o auditores externos verificar que un proveedor de IA en la nube realmente está cumpliendo con las garantías de privacidad prometidas. Hay una falta de transparencia en cómo se recopilan, almacenan y utilizan los datos de los usuarios, lo que los deja vulnerables a posibles usos indebidos o violaciones. Falta de visibilidad en tiempo real: incluso si un proveedor afirma tener fuertes protecciones de privacidad, los usuarios no tienen forma de ver qué sucede con sus datos en tiempo real. Esta falta de transparencia en tiempo de ejecución significa que cualquier acceso no autorizado o uso indebido de los datos del usuario puede pasar desapercibido durante largos períodos. Amenazas internas y acceso privilegiado: los sistemas de IA en la nube a menudo requieren cierto nivel de acceso privilegiado para que los administradores y desarrolladores mantengan y actualicen el sistema. Sin embargo, este acceso privilegiado también supone un riesgo, ya que los usuarios internos podrían abusar de sus permisos para ver o manipular los datos de los usuarios. Limitar y monitorear el acceso privilegiado en entornos de nube complejos es un desafío continuo. Estos problemas resaltan la necesidad de un nuevo enfoque de la privacidad en la IA en la nube, uno que vaya más allá de la simple confianza y brinde a los usuarios garantías de privacidad sólidas y verificables. Private Cloud Compute de Apple tiene como objetivo abordar estos desafíos llevando a la nube las protecciones de privacidad de los dispositivos líderes en la industria de la compañía, ofreciendo una visión de un futuro donde la IA y la privacidad pueden coexistir. La inscripción para VB Transform 2024 está abierta Únase a los líderes empresariales en San Francisco del 9 al 11 de julio para nuestro evento emblemático de IA. Conéctese con pares, explore las oportunidades y desafíos de la IA generativa y aprenda cómo integrar aplicaciones de IA en su industria. Regístrese ahora Los principios de diseño de PCC Si bien el procesamiento en el dispositivo ofrece claras ventajas de privacidad, las tareas de IA más sofisticadas requieren la potencia de modelos más grandes basados ​​en la nube. PCC cierra esta brecha, permitiendo a Apple Intelligence aprovechar la IA en la nube mientras mantiene la privacidad y seguridad que los usuarios esperan de los dispositivos Apple. Apple diseñó PCC en torno a cinco requisitos básicos que incluyen: Computación sin estado de datos personales: PCC utiliza datos personales exclusivamente para cumplir con la solicitud del usuario y nunca lo retiene. Garantías ejecutables: las garantías de privacidad de PCC se aplican técnicamente y no dependen de componentes externos. Sin acceso privilegiado al tiempo de ejecución: PCC no tiene interfaces privilegiadas que puedan eludir las protecciones de privacidad, incluso durante incidentes. No apuntabilidad: los atacantes no pueden atacar los datos de usuarios específicos sin un ataque amplio y detectable en todo el sistema PCC. Transparencia verificable: los investigadores de seguridad pueden verificar las garantías de privacidad de PCC y que el software de producción coincida con el código inspeccionado. Estos requisitos representan un profundo avance con respecto a los modelos tradicionales de seguridad en la nube, y PCC los cumple a través de tecnologías innovadoras de hardware y software. En el corazón de PCC se encuentra el silicio personalizado y el software reforzado. El núcleo de PCC es un hardware de servidor personalizado y un sistema operativo reforzado. El hardware lleva la seguridad del silicio de Apple, incluidos Secure Enclave y Secure Boot, al centro de datos. El sistema operativo es un subconjunto de iOS/macOS simplificado y centrado en la privacidad, que admite modelos de lenguaje grandes y minimiza la superficie de ataque. Los nodos PCC cuentan con un novedoso conjunto de extensiones de nube diseñadas para brindar privacidad. Se excluyen las interfaces de administración tradicionales y las herramientas de observabilidad se reemplazan con componentes diseñados específicamente que brindan solo métricas esenciales que preservan la privacidad. La pila de aprendizaje automático, creada con Swift on Server, está diseñada para una IA segura en la nube. Transparencia y verificación sin precedentes Lo que realmente distingue al PCC es su compromiso con la transparencia. Apple publicará las imágenes de software de cada compilación de PCC de producción, lo que permitirá a los investigadores inspeccionar el código y verificar que coincida con la versión que se ejecuta en producción. Un registro de transparencia firmado criptográficamente garantiza que el software publicado sea el mismo que se ejecuta en los nodos PCC. Los dispositivos de los usuarios solo enviarán datos a los nodos PCC que puedan demostrar que están ejecutando este software verificado. Apple también proporciona amplias herramientas, incluido un entorno de investigación virtual PCC, para que los expertos en seguridad auditen el sistema. El programa Apple Security Bounty recompensará a los investigadores que encuentren problemas, particularmente aquellos que socaven las garantías de privacidad de PCC. La medida de Apple pone de relieve el error de Microsoft. En marcado contraste con PCC, la reciente oferta de inteligencia artificial de Microsoft, Recall, ha enfrentado importantes problemas de privacidad y seguridad. Se descubrió que Recall, diseñado para utilizar capturas de pantalla para crear un registro de actividad del usuario con capacidad de búsqueda, almacena datos confidenciales como contraseñas en texto sin formato. Los investigadores explotaron fácilmente la característica para acceder a datos no cifrados, a pesar de las afirmaciones de seguridad de Microsoft. Desde entonces, Microsoft ha anunciado cambios en Recall, pero sólo después de una reacción violenta significativa. Esto sirve como recordatorio de los recientes problemas de seguridad de la compañía, con un informe de la Junta de Revisión de Seguridad Cibernética de EE. UU. que concluye que Microsoft tenía una cultura corporativa que devaluaba la seguridad. Mientras Microsoft se esfuerza por parchar sus ofertas de IA, el PCC de Apple es un ejemplo de cómo incorporar privacidad y seguridad en un sistema de IA desde cero, permitiendo una transparencia y verificación significativas. Vulnerabilidades y limitaciones potenciales A pesar del diseño robusto de PCC, es importante reconocer que todavía existen muchas vulnerabilidades potenciales: Ataques de hardware: adversarios sofisticados podrían potencialmente encontrar formas de manipular físicamente o extraer datos del hardware. Amenazas internas: los empleados deshonestos con un profundo conocimiento de PCC podrían potencialmente subvertir las protecciones de privacidad desde el interior. Debilidades criptográficas: Si se descubren debilidades en los algoritmos criptográficos utilizados, podrían socavar las garantías de seguridad de PCC. Herramientas de observabilidad y gestión: los errores o descuidos en la implementación de estas herramientas podrían filtrar involuntariamente datos del usuario. Verificación del software: puede resultar complicado para los investigadores verificar exhaustivamente que las imágenes públicas coincidan exactamente con lo que se está ejecutando en producción en todo momento. Componentes que no son PCC: las debilidades en los componentes fuera del límite de PCC, como el relé OHTTP o los balanceadores de carga, podrían potencialmente permitir el acceso a datos o la orientación de usuarios. Ataques de inversión de modelos: no está claro si los “modelos básicos” de PCC podrían ser susceptibles a ataques que extraigan datos de entrenamiento de los propios modelos. Su dispositivo sigue siendo el mayor riesgo Incluso con la sólida seguridad de PCC, comprometer el dispositivo de un usuario sigue siendo una de las mayores amenazas a la privacidad: Dispositivo como raíz de confianza: si un atacante compromete el dispositivo, podría acceder a datos sin procesar antes de que estén cifrados o interceptar resultados descifrados. del PCC. Autenticación y autorización: un atacante que controle el dispositivo podría realizar solicitudes no autorizadas a PCC utilizando la identidad del usuario. Vulnerabilidades de endpoints: los dispositivos tienen una gran superficie de ataque, con vulnerabilidades potenciales en el sistema operativo, las aplicaciones o los protocolos de red. Riesgos a nivel de usuario: los ataques de phishing, el acceso físico no autorizado y la ingeniería social pueden comprometer los dispositivos. Un paso adelante, pero aún quedan desafíos El PCC de Apple es un paso adelante en la IA en la nube que preserva la privacidad, lo que demuestra que es posible aprovechar la potente IA en la nube manteniendo al mismo tiempo un fuerte compromiso con la privacidad del usuario. Sin embargo, PCC no es una solución perfecta, con desafíos y vulnerabilidades potenciales que van desde ataques de hardware y amenazas internas hasta debilidades en la criptografía y componentes que no son PCC. Es importante señalar que los dispositivos de los usuarios también siguen siendo un importante vector de amenazas, vulnerables a diversos ataques que pueden comprometer la privacidad. PCC ofrece una visión prometedora de un futuro en el que la inteligencia artificial avanzada y la privacidad coexisten, pero hacer realidad esta visión requerirá algo más que innovación tecnológica. Se necesita un cambio fundamental en la forma en que abordamos la privacidad de los datos y las responsabilidades de quienes manejan información confidencial. Si bien PCC marca un hito importante, está claro que el viaje hacia una IA verdaderamente privada está lejos de terminar. VB Daily ¡Manténgase informado! Reciba las últimas noticias en su bandeja de entrada diariamente. Al suscribirse, acepta los Términos de servicio de VentureBeat. Gracias por suscribirte. Consulte más boletines de VB aquí. Ocurrió un error.