Los profesionales de la ciberseguridad tienen el deber urgente de proteger las herramientas de IA, garantizando que estas tecnologías solo se utilicen para el bien social, fue un mensaje contundente en la Conferencia RSA 2024. La IA es enormemente prometedora en el entorno del mundo real, como el diagnóstico de condiciones de salud más rápido y con mayor precisión. más precisión. Sin embargo, dado que el ritmo de la innovación y la adopción de la IA se acelera a un ritmo sin precedentes, se deben implementar medidas de seguridad desde el principio para garantizar que se cumpla su enorme promesa, como muchos lo pidieron. Esto debe hacerse teniendo en cuenta conceptos como privacidad y equidad. “Tenemos la responsabilidad de crear un espacio seguro para la exploración”, enfatizó Vasu Jakkal, vicepresidente corporativo de seguridad, cumplimiento, identidad y gestión de Microsoft. Por otra parte, Dan Hendrycks, fundador del Centro para la Seguridad de la IA, dijo que la IA conlleva una enorme cantidad de riesgos, tanto sociales como técnicos, dada su creciente influencia y potencial en el mundo físico. «Este es un problema técnico-social más amplio que un simple problema técnico», afirmó. Bruce Schneier, tecnólogo de seguridad, investigador y profesor de la Escuela Kennedy de Harvard, añadió: «La seguridad es ahora nuestra seguridad, y es por eso que tenemos que pensar en estas cosas de manera más amplia». Amenazas a la integridad de la IA Los empleados están utilizando herramientas de IA generativa disponibles públicamente, como ChatGPT para su trabajo, un fenómeno que Dan Lohrmann, CISO de Presidio, denominó «Bring Your Own AI». Mike Aiello, director de tecnología de Secureworks, dijo a Infosecurity que ve una analogía con cuando surgieron por primera vez los servicios Secure Access Service Edge (SASE), lo que llevó a que muchos empleados de todas las empresas crearan suscripciones. «Las organizaciones están viendo lo mismo con el uso de la IA, como registrarse en ChatGPT, y está un poco descontrolado en la empresa», señaló. Esta tendencia está dando lugar a numerosas preocupaciones de seguridad y privacidad para las empresas, como la introducción de datos empresariales confidenciales en estos modelos, lo que podría hacer que la información esté disponible públicamente. Otros problemas amenazan la integridad de los resultados de las herramientas de IA. Estos incluyen el envenenamiento de datos, mediante el cual el comportamiento de los modelos se cambia de forma accidental o intencional al alterar los datos en los que están entrenados, y ataques de inyección rápida, en los que los modelos de IA se manipulan para realizar acciones no deseadas. Estos problemas amenazan con socavar la confianza en las tecnologías de inteligencia artificial, provocando problemas como alucinaciones e incluso prejuicios y discriminación. Esto, a su vez, podría limitar su uso y su potencial para resolver importantes problemas sociales. La IA es una cuestión de gobernanza Los expertos que hablaron en la Conferencia RSA abogaron por que las organizaciones traten las herramientas de IA como cualquier otra aplicación que necesiten proteger. Heather Adkins, vicepresidenta de ingeniería de seguridad de Google, señaló que, en esencia, los sistemas de IA son iguales a otras aplicaciones, con entradas y salidas. «Muchas de las técnicas que hemos estado desarrollando durante los últimos 30 años como industria también se aplican aquí», comentó. Según Jakkal, la esencia de la seguridad de los sistemas de IA es un sistema sólido de gobernanza de la gestión de riesgos. Estableció los tres pilares de Microsoft para esto: Descubrir: comprender qué herramientas de inteligencia artificial se utilizan en su entorno y cómo las usan los empleados Proteger: mitigar el riesgo en todos los sistemas que tiene e implementar Gobernanza: cumplir con las políticas regulatorias y de códigos de conducta, y capacitar a la fuerza laboral en el uso seguro de herramientas de IA Lohrmann enfatizó que el primer paso que deben tomar las organizaciones es la visibilidad de la IA en toda su fuerza laboral. «Hay que saber qué está pasando antes de poder hacer algo al respecto», dijo a Infosecurity. Aiello de Secureworks también abogó por mantener a los humanos muy informados al confiar el trabajo a modelos de IA. Si bien la empresa utiliza herramientas para el análisis de datos, sus analistas verificarán estos datos y brindarán retroalimentación cuando ocurran problemas como alucinaciones, explicó. Conclusión Estamos en las primeras etapas de comprensión del verdadero impacto que la IA puede tener en la sociedad. Para que este potencial se haga realidad, estos sistemas deben estar respaldados por una seguridad sólida, o de lo contrario corren el riesgo de enfrentar límites o incluso prohibiciones en todas las organizaciones y países. Las organizaciones todavía están lidiando con la explosión de herramientas de IA generativa en el lugar de trabajo y deben actuar rápidamente para desarrollar políticas y herramientas que puedan gestionar este uso de forma segura. Es probable que el enfoque actual de la industria de la ciberseguridad sobre este tema influya en gran medida en el papel futuro de la IA.