AT&T Cybersecurity presentó un panel dinámico de combinación cibernética con Akamai, Palo Alto Networks, SentinelOne y Cloud Security Alliance. Discutimos algunos temas provocativos en torno a la Inteligencia Artificial (IA) y el Aprendizaje Automático (ML), incluida la IA responsable y la seguridad de la IA. Hubo algunos buenos ejemplos de mejores prácticas compartidas en un mundo emergente de IA, como la implementación de la arquitectura Zero Trust y la anonimización de datos confidenciales. Muchas gracias a nuestros panelistas por compartir sus ideas. Antes de profundizar en los temas candentes relacionados con la gobernanza de la IA y la protección de nuestra privacidad, definamos ML y GenAI para brindar algunos antecedentes sobre qué son y qué pueden hacer junto con algunos ejemplos de casos de uso del mundo real para un mejor contexto sobre el impacto y las implicaciones de la IA. tendrá en nuestro futuro. GenAI y ML Machine Learning (ML) es un subconjunto de la IA que se basa en el desarrollo de algoritmos para tomar decisiones o predicciones basadas en datos sin estar programados explícitamente. Utiliza algoritmos para aprender y mejorar automáticamente a partir de la experiencia. GenAI es un subconjunto de ML que se centra en la creación de nuevas muestras de datos que se asemejan a datos del mundo real. GenAI puede producir contenido nuevo y original a través del aprendizaje profundo, un método en el que los datos se procesan como el cerebro humano y es independiente de la interacción humana directa. GenAI puede producir contenido nuevo basado en texto, imágenes, renderizado 3D, video, audio, música y código y, cada vez más, con capacidades multimodales, puede interpretar diferentes indicaciones de datos para generar diferentes tipos de datos para describir una imagen, generar imágenes realistas, crear ilustraciones vibrantes. predecir contenido contextualmente relevante, responder preguntas de manera informativa y mucho más. Los casos de uso del mundo real incluyen resumir informes, crear música en un estilo específico, desarrollar y mejorar código más rápido, generar contenido de marketing en diferentes idiomas, detectar y prevenir fraudes, optimizar las interacciones con los pacientes, detectar defectos y problemas de calidad, y predecir y responder a ciberataques. Ataques con capacidades de automatización a velocidad de máquina. IA responsable Dado el poder de hacer el bien con la IA, ¿cómo equilibramos el riesgo y la recompensa por el bien de la sociedad? ¿Cuál es el espíritu y la filosofía de una organización en torno a la gobernanza de la IA? ¿Cuál es la filosofía de la organización en torno a la confiabilidad, transparencia, responsabilidad, seguridad, privacidad y equidad con la IA, y una que esté centrada en el ser humano? Es importante incorporar cada uno de estos pilares en la innovación en IA y la toma de decisiones comerciales de una organización. Es crucial equilibrar el riesgo y la recompensa de innovar AI/ML en el ecosistema de una organización sin comprometer la responsabilidad social y dañar la marca y la reputación de la empresa. En el centro de la IA, donde los datos personales son el ADN de nuestra identidad en un mundo digital hiperconectado, la privacidad es una máxima prioridad. Preocupaciones de privacidad con la IA En la encuesta de privacidad del consumidor de 2023 de Cisco, un estudio de más de 2600 consumidores en 12 países a nivel mundial, indica que la conciencia de los consumidores sobre los derechos de privacidad de los datos continúa creciendo con las generaciones más jóvenes (grupos de edad menores de 45 años) ejerciendo sus derechos de acceso a los sujetos de datos y cambiar de proveedor por sus prácticas y políticas de privacidad. Los consumidores apoyan el uso de la IA, pero también están preocupados. Entre aquellos que apoyan el uso de la IA: el 48% cree que la IA puede ser útil para mejorar sus vidas. El 54% está dispuesto a compartir datos personales anonimizados para mejorar los productos de IA. La IA es un área en la que hay trabajo por hacer para ganarse la confianza. El 60% de los encuestados cree que El uso de la IA por parte de las organizaciones ya ha erosionado la confianza en ellas. El 62% informó preocupaciones sobre el uso empresarial de la IA. El 72% de los encuestados indicó que auditar los productos y soluciones para detectar sesgos los haría “algo” o mucho “más cómodos” con la IA. El 12% que indicó que eran usuarios habituales de GenAI. El 63% estaba obteniendo un valor significativo de GenAI. Más del 30% de los usuarios ingresaron nombres, direcciones e información de salud. Del 25% al ​​28% de los usuarios proporcionaron información financiera, religión/etnia y cuenta o identificación. números Estas categorías de datos presentan preocupaciones y desafíos sobre la privacidad de los datos si se exponen al público. Los encuestados indicaron preocupaciones con la seguridad y privacidad de sus datos y la confiabilidad de la información compartida. El 88% de los usuarios dijeron que estaban “algo preocupados” o “muy preocupados” si sus datos fueran compartidos. El 86% estaba preocupado de que la información que obtenían de Gen AI pudiera ser incorrecta y perjudicial para la humanidad. Asociaciones públicas y privadas en un panorama de IA en evolución Si bien todos tienen un papel que desempeñar en la protección de los datos personales, el 50% de la opinión de los consumidores sobre el liderazgo en privacidad cree que el gobierno nacional o local debería tener la responsabilidad principal. De los encuestados, el 21% cree que las organizaciones, incluidas las empresas privadas, deberían tener la responsabilidad principal de proteger los datos personales, mientras que el 19% dijo que los propios individuos. Muchas de estas discusiones sobre la ética de la IA, su protección y la protección de la privacidad se están produciendo en el escenario estatal, nacional y global, desde la Casa Blanca hasta el Parlamento Europeo. Los innovadores, científicos, diseñadores, desarrolladores, ingenieros y expertos en seguridad de la IA que diseñan, desarrollan, implementan, operan y mantienen en el floreciente mundo de la IA/ML y la ciberseguridad desempeñan un papel fundamental en la sociedad porque lo que hacemos importa. Los líderes en ciberseguridad deberán estar a la vanguardia para adoptar prácticas de diseño de seguridad centradas en el ser humano y desarrollar nuevas formas de proteger mejor las aplicaciones de IA/ML y LLM para garantizar que se implementen y establezcan controles técnicos adecuados y barreras de seguridad mejoradas. Los profesionales de la privacidad deberán seguir educando a las personas sobre su privacidad y sus derechos. Las asociaciones de colaboración públicas y privadas entre la industria, las agencias gubernamentales, el mundo académico y los investigadores seguirán siendo fundamentales para promover la adopción de un marco de gobernanza centrado en preservar la privacidad, regular las protecciones de la privacidad, proteger la IA contra el uso indebido y las actividades cibercriminales, y mitigar el uso de la IA como herramienta. arma geopolítica. Gobernanza de la IA Es imperativo contar con un estándar de oro para un modelo y marco de gobernanza de la IA para la seguridad y confiabilidad de la adopción de la IA. Un modelo de gobernanza que prioriza la confiabilidad, la transparencia, la responsabilidad, la seguridad, la privacidad y la equidad de la IA. Uno que ayudará a cultivar la confianza en las tecnologías de IA y promoverá la innovación en IA al tiempo que mitiga los riesgos. Un marco de IA que guiará a las organizaciones sobre las consideraciones de riesgo. ¿Cómo monitorear y gestionar el riesgo con IA? ¿Cuál es la capacidad de medir adecuadamente el riesgo? ¿Cuál debería ser la tolerancia al riesgo? ¿Cuál es la priorización de riesgos? ¿Qué se necesita para verificar? ¿Cómo se verifica y valida? ¿Qué es la evaluación de impacto sobre los factores humanos, técnicos, socioculturales, económicos, legales, ambientales y éticos? Están surgiendo algunos marcos comunes, como el marco de gestión de riesgos de IA del NIST. Describe las siguientes características de los sistemas de IA confiables: válidos y confiables, seguros y resilientes, responsables y transparentes, explicables e interpretables, con privacidad mejorada y justos con manejo de sesgos dañinos. El AI RMF tiene cuatro funciones principales para gobernar y gestionar los riesgos de la IA: gobernar, mapear, medir y gestionar. Como parte de un proceso regular dentro del ciclo de vida de la IA, la IA responsable realizada mediante pruebas, evaluación, verificación y validación permite la remediación a mitad de camino y la gestión de riesgos post hoc. El Departamento de Comercio de EE. UU. anunció recientemente que, a través del Instituto Nacional de Estándares y Tecnología (NIST), establecerá el Instituto de Seguridad de la Inteligencia Artificial de EE. UU. (USAISI) para liderar los esfuerzos del gobierno de EE. UU. en materia de seguridad y confianza en la IA. El AI Safety Institute se basará en el marco de gestión de riesgos de IA del NIST para crear un punto de referencia para evaluar y auditar los modelos de IA. El Consorcio del Instituto de Seguridad de IA de EE. UU. permitirá una estrecha colaboración entre agencias gubernamentales, industrias, organizaciones y comunidades afectadas para ayudar a garantizar que los sistemas de IA sean seguros y confiables. Preservar la privacidad y desbloquear todo el potencial de la IA La IA no solo tiene efectos duraderos en nuestros intereses comerciales y nacionales, sino que también puede tener un impacto duradero en nuestro propio interés y existencia humanos. Preservar la privacidad de las aplicaciones de IA: Proteger aplicaciones habilitadas para IA y LLM Proteger datos confidenciales Anonimizar conjuntos de datos Diseñar y desarrollar confianza y seguridad Equilibrar las ventajas competitivas técnicas y comerciales de la IA y los riesgos sin comprometer la integridad humana y la responsabilidad social Liberará todo el potencial de la IA al mismo tiempo mantener el cumplimiento de las leyes y regulaciones de privacidad emergentes. Un marco de gestión de riesgos de IA como el NIST que aborde la equidad y las preocupaciones de la IA con prejuicios e igualdad junto con principios centrados en el ser humano en su núcleo desempeñará un papel fundamental en la generación de confianza en la IA dentro de la sociedad. Los riesgos y beneficios de la IA para nuestra seguridad, privacidad, protección y vidas tendrán una profunda influencia en la evolución humana. El impacto de la IA es quizás el acontecimiento de mayor trascendencia para la humanidad. Este es solo el comienzo de muchas más conversaciones apasionantes e interesantes sobre la IA. Una cosa es segura: la IA no va a desaparecer. La IA seguirá siendo un tema provocativo en las próximas décadas. Para obtener más información, explore nuestros servicios de consultoría en ciberseguridad para ayudarle.

Source link