En este podcast, analizamos el impacto del auge de la inteligencia artificial (IA) en el almacenamiento y el cumplimiento con Mathieu Gorge, director ejecutivo de Vigitrust. Hablamos sobre la situación de los marcos de cumplimiento para la IA y cómo abordar la falta. de madurez de la gobernanza en el campo. Gorge también habla sobre cómo las organizaciones pueden reconocer los límites del panorama actual pero tomar el control de una situación aún en desarrollo. Antony Adshead: ¿Cuáles son los impactos clave de la IA en términos de leyes y regulaciones en TI? Mathieu Gorge: Creo que es importante entender que la IA no es nueva. Ha existido por un tiempo y no debemos confundir el aprendizaje automático, o el aprendizaje automático inteligente, con la IA adecuada. La realidad es que hemos escuchado mucho sobre ChatGPT y similares, pero la IA es mucho más que eso. Actualmente existen, según se mire, entre 35 y 40 regulaciones y estándares en torno a la gestión de la IA. Lo cual es bastante interesante porque me recuerda a la seguridad cibernética hace unos 25 años, cuando la industria intentaba autorregularse y la mayoría de los grandes proveedores creaban su propio marco de seguridad cibernética. Estamos viendo lo mismo con la IA. Sabemos, por ejemplo, que la Cloud Security Alliance ideó su propia iniciativa, la IAPP. [International Association of Privacy Professionals] elaboraron su propio documento técnico sobre IA, que en realidad es bastante bueno porque documenta 60 temas clave que deben analizarse en torno a la IA, que van mucho más allá del impacto potencial de ChatGPT, etc. También estamos viendo a la UE con la Ley de Privacidad de la IA y algunos estados de EE. UU. intentando hacer eso, por lo que es como si la historia se repitiera. Y si se trata de seguridad cibernética, lo que sucederá es que en los próximos cinco a diez años, probablemente veremos surgir de la nada cuatro o cinco marcos principales que se convertirán en los marcos de facto, y todo lo demás estará relacionado con eso. . La realidad es que con la IA tienes un conjunto de datos que ingresan y un conjunto de datos que, esencialmente, son manipulados por la IA y arrojan otro conjunto. Ese conjunto puede ser exacto, puede no ser exacto, puede ser utilizable o útil o no. «Si [AI regulation follows the example of] En materia de ciberseguridad, en los próximos cinco a diez años, probablemente veremos surgir de la nada entre cuatro y cinco marcos principales que se convertirán en los marcos de facto, y todo lo demás estará relacionado con eso” Mathieu Gorge, Vigitrust Uno de los temas es que realmente no tenemos la gobernanza adecuada en este momento, por lo que también se están anunciando muchos nuevos cursos de gobernanza de IA en la industria. Y si bien eso es encomiable, debemos llegar a un acuerdo sobre lo que es una buena gobernanza de la IA, específicamente con respecto a los datos que crea, dónde termina en términos de almacenamiento, el impacto en el cumplimiento y la seguridad. Adshead: ¿Cómo afectarán esto al almacenamiento, la copia de seguridad y la protección de datos empresariales? Gorge: En este momento, cuando analizamos el almacenamiento tradicional, en términos generales observamos su entorno, su ecosistema, sus datos, los clasificamos y les asignamos un valor. Y, dependiendo de ese valor y el impacto potencial, usted coloca la seguridad adecuada y asigna el período de tiempo que necesita para conservar los datos y cómo los conserva, elimínelos. Pero, si miras un CRM [customer relationship management service]Si ingresa datos incorrectos, aparecerán datos incorrectos y serán un solo conjunto de datos. Entonces, para ser franco, basura entra, basura sale. Con la IA, es mucho más complejo que eso, por lo que es posible que tenga basura, pero en lugar de un conjunto de datos que podría ser basura, puede haber muchos conjuntos de datos diferentes y pueden ser precisos o no. Si miras ChatGPT, es un poco como un narcisista. Nunca está mal y si le das alguna información y luego escupe información incorrecta y luego dices: «No, eso no es exacto», te dirá que es porque no le diste el conjunto de datos correcto. Y luego, en algún momento, dejará de hablarte, porque habrá agotado toda su capacidad para discutir contigo, por así decirlo. Desde una perspectiva de cumplimiento, si está utilizando IA (una IA complicada o una IA simple como ChatGPT) para crear un documento de marketing, está bien. Pero si usas esto para hacer asuntos financieros o legales, definitivamente no está bien. Necesitamos contar con la gobernanza adecuada y los controles adecuados para evaluar el impacto de los datos impulsados ​​por la IA. Estos son los primeros días en este momento y es por eso que estamos viendo surgir tantos marcos de gobernanza. Algunas de ellas van en la dirección correcta, otras son demasiado básicas y otras son demasiado complicadas de implementar. Necesitamos ver qué va a pasar, pero debemos tomar decisiones con bastante rapidez. Necesitamos, como mínimo, para cada organización un conjunto de KPI [key performance indicators]. Entonces, cuando miro los datos que surgen de la IA, ¿estoy feliz de que sean precisos, estoy feliz de que no me dejarán fuera de cumplimiento, estoy feliz de poder almacenarlos de la manera correcta? ¿Estoy contento de que no vaya a almacenar bits de datos y no sé a dónde va ni qué debemos hacer con ellos? Se trata de intentar encontrar la gobernanza adecuada, el uso correcto de la IA. Aún es temprano, pero insto a todas las empresas a que comiencen a analizar los marcos de gobernanza de la IA ahora mismo para no crear un monstruo, por así decirlo, en el que sea demasiado tarde y haya demasiados datos que no puedan controlar.

Source link