La rápida proliferación de la inteligencia artificial (IA) promete un valor significativo para la industria, los consumidores y la sociedad más amplia, pero como con muchas tecnologías, los nuevos riesgos de estos avances en la IA deben lograrse para realizar su potencial total. El Marco NIST AI Risk Management (AI RMF) se desarrolló para gestionar los beneficios y los riesgos para las personas, las organizaciones y la sociedad asociada con la IA y cubre una amplia gama de riesgos que van desde la seguridad hasta la falta de transparencia y responsabilidad. Para aquellos de nosotros en NIST que trabajamos en ciberseguridad, privacidad e IA, una preocupación clave es cómo los avances en la amplia adopción de la IA pueden afectar los riesgos actuales de ciberseguridad y privacidad, enfoques de gestión de riesgos y cómo estos enfoques de gestión de riesgos se relacionan entre sí a nivel empresarial. Con respecto a la privacidad, la IA crea nuevos riesgos de reidentificación, no solo por su poder analítico en conjuntos de datos dispares, sino también debido a la posible fuga de datos de la capacitación del modelo. Las capacidades predictivas de IA también podrían revelar mayores ideas sobre las personas, así como amplificar el seguimiento y la vigilancia conductual. En el lado positivo, el alcance analítico y el amplio alcance de la IA podrían usarse para impulsar a los asistentes de privacidad personal que podrían ayudar a las personas a administrar mejor sus preferencias de privacidad en sus actividades en línea. AI creará nuevas oportunidades y desafíos para la seguridad cibernética, como las amenazas cibernéticas habilitadas para la IA, las amenazas cibernéticas para mejorar la IA para mejorar las herramientas y las capacidades de la ciberseguridad y las capacidades de la IA para la IA. El uso de IA para mejorar la caza de amenazas de ciberseguridad, por ejemplo, podría aumentar las tasas de detección, pero también podría aumentar el número de falsos positivos. Como resultado, los profesionales de ciberseguridad y otro personal pueden necesitar diferentes habilidades de ciberseguridad, y destaca la importancia de garantizar que cualquier solución sea explicable e interpretable. Además, a medida que las unidades de negocios en una organización incorporan tecnología de IA en sus soluciones, será necesario comprender mejor las dependencias de los datos en toda la organización. Los responsables de administrar los riesgos de ciberseguridad pueden necesitar reevaluar la importancia relativa de los activos de datos, actualizar el inventario de activos de datos y tener en cuenta las nuevas amenazas y riesgos. Finalmente, las amenazas habilitadas para AI, como un uso de adversarios de un generador de voz de IA, pueden requerir una organización para actualizar la capacitación anti-phishing anual. Todo esto resalta la necesidad crítica de estándares, directrices, herramientas y prácticas para mejorar la gestión de la ciberseguridad y la privacidad en la era de la IA, garantizar la adopción responsable de la IA para la seguridad cibernética y la protección de la privacidad, e identificar las acciones importantes que las organizaciones deben tomar para adaptar su respuesta defensiva a las técnicas ofensivas habilitadas para AI-AI. Para satisfacer esta necesidad y garantizar un enfoque sostenido en estos temas importantes, NIST está estableciendo un programa para la ciberseguridad y la privacidad de la IA y el uso de la IA para la ciberseguridad y la privacidad. El programa se basará en la experiencia NIST, la investigación y las publicaciones existentes como: el programa apunta a comprender el avance de AI en la IA puede afectar la ciberseguridad y la privacidad de la privacidad e identificar las adaptaciones existentes para las adaptaciones existentes para los trabajadores existentes y los recursos existentes. El programa trabajará con las partes interesadas en toda la industria, el gobierno y la academia, y desempeñará un papel principal en los esfuerzos estadounidenses e internacionales para asegurar el ecosistema de IA. El programa coordinará con otros programas NIST, agencias federales y entidades comerciales, según sea necesario, para garantizar un enfoque holístico para abordar los desafíos y oportunidades de ciberseguridad y privacidad relacionados con la IA. Este programa que trabaja a través del NCCOE está iniciando un proyecto para desarrollar un perfil comunitario para adaptar los marcos existentes, comenzando con el marco de seguridad cibernética, así como comprender los impactos en otros marcos, como el marco de privacidad, el marco de gestión de riesgos de IA y el marco agradable. Este esfuerzo se basa en otros perfiles comunitarios desarrollados para otros casos de uso y tecnologías. El perfil de la comunidad de IA comenzará con un enfoque en la gestión de tres fuentes de riesgos de ciberseguridad y privacidad relacionados con la IA: riesgos de ciberseguridad y privacidad que surgen del uso de IA por parte de las organizaciones, incluida la obtención de sistemas de IA, componentes e infraestructuras de aprendizaje automático, y minimizando la fuga de datos. Determinar cómo defenderse contra los ataques habilitados para AI. Asistir a las organizaciones en el uso de IA con sus actividades de defensa cibernética y usar IA para mejorar las protecciones de privacidad. Esperamos el diálogo y la colaboración sobre cómo avanzar en el programa y ayudar a la comunidad cibernética y privacidad a medida que adoptan el desarrollo y el uso de IA. Estén atentos y visite el sitio web del nuevo programa para obtener más información. Envíe cualquier comentario o pregunta a Aicyber [at] nist.gov (Aicyber[at]nist[dot]Gobierno).