Todo lo que necesitas saber sobre tecnología

Etiqueta: regulación de ia

El plan de marca de agua de IA de Meta es endeble, en el mejor de los casos


En los últimos meses, hemos visto una llamada automática falsa de Joe Biden alentando a los votantes de New Hampshire a «guardar su voto para las elecciones de noviembre» y un respaldo falso a Donald Trump por parte de Taylor Swift. Está claro que 2024 marcará la primera “elección de IA” en la historia de Estados Unidos. Mientras muchos defensores piden salvaguardias contra los posibles daños de la IA a nuestra democracia, Meta (la empresa matriz de Facebook e Instagram) anunció con orgullo el mes pasado que etiquetará a la IA como -Contenido generado que se creó utilizando las herramientas de IA generativa más populares. La compañía dijo que está «creando herramientas líderes en la industria que pueden identificar marcadores invisibles a escala, específicamente, la información ‘generada por IA’ en los estándares técnicos C2PA e IPTC». Desafortunadamente, las empresas de redes sociales no resolverán el problema de los deepfakes en las redes sociales este año con este enfoque. De hecho, este nuevo esfuerzo hará muy poco para abordar el problema del material generado por IA que contamina el ambiente electoral. La debilidad más obvia es que el sistema de Meta solo funcionará si los malos actores que crean deepfakes usan herramientas que ya ponen marcas de agua, es decir, información oculta o visible sobre el origen del contenido digital en sus imágenes. Las herramientas de IA generativa de “código abierto” no seguras en su mayoría no producen marcas de agua en absoluto. (Usamos el término no seguro y ponemos “código abierto” entre comillas para indicar que muchas de estas herramientas no cumplen con las definiciones tradicionales de software de código abierto, pero aún representan una amenaza porque su código subyacente o sus pesos de modelo se han puesto a disposición del público. .) Si se lanzan nuevas versiones de estas herramientas no seguras que contienen marcas de agua, las herramientas antiguas seguirán estando disponibles y podrán producir contenido sin marcas de agua, incluida desinformación personalizada y altamente persuasiva y pornografía deepfake no consensuada. También nos preocupa que los malos actores pueden eludir fácilmente el régimen de etiquetado de Meta incluso si están utilizando las herramientas de inteligencia artificial que Meta dice que estarán cubiertas, que incluyen productos de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock. Dado que se necesitan unos dos segundos para eliminar una marca de agua de una imagen producida utilizando el estándar de marca de agua C2PA actual que estas empresas han implementado, la promesa de Meta de etiquetar imágenes generadas por IA fracasa. Cuando los autores subieron una imagen que habían generado a un sitio web que busca marcas de agua, el sitio indicó correctamente que era una imagen sintética generada por una herramienta OpenAI. IEEE SpectrumLo sabemos porque pudimos eliminar fácilmente las marcas de agua que Meta afirma que detectará, y ninguno de nosotros es ingeniero. Tampoco tuvimos que escribir una sola línea de código ni instalar ningún software. Primero, generamos una imagen con DALL-E 3 de OpenAI. Luego, para ver si la marca de agua funcionaba, subimos la imagen al sitio web de verificación de credenciales de contenido C2PA. Una interfaz simple y elegante nos mostró que esta imagen fue hecha con DALL-E 3 de OpenAI. ¿Cómo eliminamos entonces la marca de agua? Tomando una captura de pantalla. Cuando subimos la captura de pantalla al mismo sitio web de verificación, el sitio de verificación no encontró evidencia de que la imagen hubiera sido generada por IA. El mismo proceso funcionó cuando creamos una imagen con el generador de imágenes de IA de Meta y le tomamos una captura de pantalla y la subimos a un sitio web que detecta los metadatos de IPTC que contienen la «marca de agua» de IA de Meta. Sin embargo, cuando los autores tomaron una captura de pantalla de la imagen y cargó esa captura de pantalla en el mismo sitio de verificación, el sitio no encontró ninguna marca de agua y, por lo tanto, no hubo evidencia de que la imagen fuera generada por IA. IEEE Spectrum ¿Existe una mejor manera de identificar contenido generado por IA? El anuncio de Meta afirma que está «trabajando arduamente para desarrollar clasificadores que puedan ayudar… a detectar automáticamente contenido generado por IA, incluso si el contenido carece de marcadores invisibles». Es bueno que la compañía esté trabajando en ello, pero hasta que tenga éxito y comparta esta tecnología con toda la industria, nos quedaremos estancados preguntándonos si todo lo que vemos o escuchamos en línea es real. Para una solución más inmediata, la industria podría adoptar marcas de agua de máxima indelebilidad, es decir, marcas de agua que sean lo más difíciles de eliminar posible. Las marcas de agua imperfectas de hoy generalmente adjuntan información a un archivo en forma de metadatos. Para que las marcas de agua máximamente indelebles ofrezcan una mejora, deben ocultar información de manera imperceptible en los píxeles reales de las imágenes, las formas de onda del audio (Google Deepmind afirma haber hecho esto con su marca de agua patentada SynthID) o mediante patrones de frecuencia de palabras ligeramente modificados en IA. texto generado. Usamos el término «máximo» para reconocer que es posible que nunca exista una marca de agua perfectamente indeleble. Sin embargo, esto no es un problema sólo con las marcas de agua. El célebre experto en seguridad Bruce Schneier señala que “la seguridad informática no es un problema que tenga solución…. La seguridad siempre ha sido una carrera armamentista, y siempre lo será”. En términos metafóricos, es instructivo considerar la seguridad del automóvil. Ningún fabricante de automóviles ha producido jamás un coche que no pueda estrellarse. Sin embargo, eso no ha impedido que los reguladores implementen estándares de seguridad integrales que exigen cinturones de seguridad, bolsas de aire y cámaras retrovisoras en los automóviles. Si esperáramos a que se perfeccionaran las tecnologías de seguridad antes de exigir la implementación de las mejores opciones disponibles, estaríamos mucho peor en muchos ámbitos. Hay un impulso político cada vez mayor para abordar los deepfakes. Quince de las mayores empresas de IA, incluidas casi todas las mencionadas en este artículo, firmaron los Compromisos Voluntarios de IA de la Casa Blanca el año pasado, que incluían promesas de “desarrollar mecanismos sólidos, incluidos sistemas de procedencia y/o marcas de agua para contenido de audio o visual”. y «desarrollar herramientas o API para determinar si un contenido en particular se creó con su sistema». Desafortunadamente, la Casa Blanca no fijó ningún cronograma para los compromisos voluntarios. Luego, en octubre, la Casa Blanca, en su Orden Ejecutiva sobre IA, definió las marcas de agua de IA como “el acto de incrustar información, que normalmente es difícil de eliminar, en los resultados”. creado por IA, incluso en productos como fotografías, videos, clips de audio o texto, con el fin de verificar la autenticidad del producto o la identidad o características de su procedencia, modificaciones o transporte”. En la conferencia celebrada el 16 de febrero, un grupo de 20 empresas tecnológicas (la mitad de las cuales había firmado previamente los compromisos voluntarios) firmaron un nuevo “Acuerdo tecnológico para combatir el uso engañoso de la IA en las elecciones de 2024”. Sin asumir ningún compromiso concreto ni establecer cronogramas, el acuerdo ofrece una vaga intención de implementar algún tipo de marca de agua o esfuerzos de procedencia del contenido. Aunque no se especifica un estándar, el acuerdo enumera tanto a C2PA como a SynthID como ejemplos de tecnologías que podrían adoptarse. ¿Podrían ayudar las regulaciones? Hemos visto ejemplos de fuertes reacciones contra los deepfakes. Tras las llamadas automáticas de Biden generadas por IA, el Departamento de Justicia de New Hampshire inició una investigación en coordinación con socios estatales y federales, incluido un grupo de trabajo bipartidista formado por los 50 fiscales generales estatales y la Comisión Federal de Comunicaciones. Mientras tanto, a principios de febrero, la FCC aclaró que las llamadas que utilizan IA de generación de voz se considerarán artificiales y estarán sujetas a restricciones según las leyes existentes que regulan las llamadas automáticas. Desafortunadamente, no tenemos leyes que obliguen a los desarrolladores de IA ni a las empresas de redes sociales a actuar. El Congreso y los estados deberían exigir que todos los productos de IA generativa incorporen marcas de agua lo más indelebles posible en su contenido de imagen, audio, video y texto utilizando tecnología de punta. También deben abordar los riesgos de los sistemas no seguros de “fuente abierta” a los que se les puede desactivar la funcionalidad de marcas de agua o usarse para eliminar marcas de agua de otros contenidos. Además, se debe alentar a cualquier empresa que fabrique una herramienta de inteligencia artificial generativa a lanzar un detector que pueda identificar, con la mayor precisión posible, cualquier contenido que produzca. Esta propuesta no debería ser controvertida, ya que sus lineamientos generales ya han sido acordados por los firmantes de los compromisos voluntarios y el reciente acuerdo electoral. Las organizaciones de estándares como C2PA, el Instituto Nacional de Estándares y Tecnología y la Organización Internacional de Normalización deberían También avanzar más rápido para generar consenso y publicar estándares para marcas de agua y etiquetado de contenido máximamente indelebles en preparación para las leyes que requieren estas tecnologías. Google, como miembro más reciente del comité directivo de C2PA, también debería actuar rápidamente para abrir su aparentemente mejor tecnología de marca de agua SynthID a todos los miembros para que la prueben. La desinformación y el engaño a los votantes no son nada nuevo en las elecciones. Pero la IA está acelerando las amenazas existentes a nuestra ya frágil democracia. El Congreso también debe considerar qué medidas puede tomar para proteger nuestras elecciones en términos más generales de quienes buscan socavarlas. Eso debería incluir algunas medidas básicas, como aprobar la Ley de Prácticas Engañosas e Intimidación de Votantes, que haría ilegal mentir deliberadamente a los votantes sobre la hora, el lugar y la forma de las elecciones con la intención de impedirles votar en el período anterior. una elección federal. El Congreso ha sido lamentablemente lento a la hora de emprender una reforma democrática integral ante las recientes conmociones. La posible amplificación de estos shocks a través del abuso de la IA debería ser suficiente para lograr finalmente que los legisladores actúen. Artículos de su sitio Artículos relacionados en la Web

Source link

Cómo ve el gobierno australiano que la IA acelera la productividad

Australia tiene el problema de desacelerar el crecimiento de la productividad. Como grupo encargado de abordar este problema, la Comisión de Productividad del gobierno australiano está considerando la IA como una parte potencial del problema. Recientemente, la Comisión publicó un informe de tres artículos, Aprovechar al máximo la oportunidad de la IA: productividad, regulación y acceso a datos, para analizar más a fondo esta oportunidad. Para maximizar las ganancias de productividad derivadas de la IA, el documento aboga por un enfoque de regulación suave. Además, la Comisión recomienda que los departamentos gubernamentales de todos los niveles (federal, estatal y local) “lideren con el ejemplo” y aporten sus propios datos y recursos para promover el desarrollo de modelos de IA de calidad. Desglose de la investigación El informe de investigación se divide en tres artículos separados. Documento 1: Adopción de la IA, productividad y el papel del gobierno El primer documento señala que debido a que la IA ya se está volviendo omnipresente en algunas áreas en línea y se está incorporando a las herramientas cotidianas, es una tecnología que ya está brindando beneficios de productividad a todas las empresas e individuos. . Son pequeños por ahora pero crecerán con el tiempo. Si bien esos aumentos de productividad son interesantes, el informe también reconoce que la IA plantea riesgos, particularmente en torno a la confianza del consumidor. La Comisión recomienda que los gobiernos puedan ser parte de la solución a este desafío de confianza aportando sus propios datos de alta calidad para respaldar el desarrollo de modelos de calidad. «La estrategia digital y de datos provisional del Gobierno señala que el Servicio Público Australiano gestiona una gran cantidad de datos que no se utilizan en toda su extensión, y el acceso sigue restringido a pesar de los claros beneficios derivados de compartir datos de forma segura entre los sectores público y privado», el notas del informe. Documento 2: Los desafíos de regular la IA El segundo documento analiza los beneficios y riesgos de la IA y cómo el gobierno australiano debería regularla. Cita la respuesta provisional del gobierno australiano a la Consulta sobre IA segura y responsable en Australia como un punto de partida útil y el documento de la Comisión de Productividad como un enfoque sistemático e implementable para la regulación de la IA (Figura A). Figura A: Regulación del uso de la IA. Imagen: Comisión de Productividad Vale la pena señalar que actualmente Australia tiene regulaciones muy suaves sobre la IA, y la industria y el público, en su mayor parte, están mirando las leyes europeas de IA que se introducirán próximamente para obtener orientación sobre el asunto. Sin embargo, en lugar de que la regulación del riesgo socave la productividad, el documento sostiene que el uso seguro y ético de la IA se reduce a una serie de factores como las normas sociales, las presiones del mercado, la arquitectura de codificación y la confianza pública. En otras palabras, el informe sostiene que es poco probable que un enfoque rígido de la regulación de la IA aborde los riesgos, y que los reguladores necesitan un enfoque más holístico. Documento 3: La IA aumenta los riesgos para la política de datos El tercer documento señala que los datos han sido un recurso tanto para el sector público como para el privado durante décadas. La IA ha acelerado las ganancias potenciales y al mismo tiempo ha elevado el riesgo. Los australianos también lo saben. Como muestra la investigación de la Comisión, la privacidad, junto con la calidad y el precio, es una de las tres principales preocupaciones entre los australianos cuando se trata de datos (Figura B). Para disipar estas preocupaciones, la Comisión recomienda una estrategia nacional de datos como preferible a una regulación contundente. Figura B: Los australianos dan una alta puntuación a la privacidad de los datos, pero por detrás de la calidad y el precio. Imagen: Comisión de Productividad “Una vez desarrolladas, todas las regulaciones y directrices futuras sobre el uso y análisis de datos podrían hacer referencia a los principios acordados de la estrategia nacional de datos”, señala el informe. «De esta manera, la estrategia de datos podría proporcionar una base segura y consistente para el desarrollo y uso de la IA y otras tecnologías con uso intensivo de datos». Más cobertura de Australia Colaboración con el gobierno en juego La idea central de la investigación es que el gobierno debería buscar ser un participante activo en la configuración de la IA. Los investigadores argumentan que el gobierno debería resistirse a infundir miedo en algunos rincones con respecto a la IA y aprovechar la oportunidad que tiene de ser una parte activa del desarrollo de mejores prácticas en IA. Para la industria, esto puede significar una proliferación de oportunidades para que los sectores público y privado se unan en colaboración. Algunas oportunidades potenciales incluyen: Iniciativas de autorregulación de la industria. Los profesionales de datos y el sector privado pueden adoptar voluntariamente principios éticos, mejores prácticas y directrices para el desarrollo y uso responsable de la IA y demostrar su compromiso con los valores sociales y la confiabilidad. Esto puede ayudar a reducir la necesidad de intervención gubernamental y garantizar que se le recomiende ese enfoque suave al gobierno australiano. Codiseño de políticas de IA con las partes interesadas. Los profesionales de datos y el sector privado pueden participar activamente en el desarrollo de políticas y regulaciones de IA y brindar su experiencia, conocimientos y retroalimentación a las agencias gubernamentales. Esto puede ayudar a garantizar que las políticas se basen en los últimos avances tecnológicos, reflejen las necesidades e intereses de las diversas partes interesadas y logren un equilibrio entre innovación y regulación. Consejos asesores de ética de la IA El gobierno puede guiarse por consejos asesores de ética de la IA, que luego pueden utilizarse como marco para el desarrollo de cualquier regulación. Estas juntas pueden actuar para informar al gobierno sobre los riesgos y daños, proponer estrategias de mitigación y promover la conciencia pública y el compromiso con la ética de la IA. Adopción de tecnologías de IA por parte del sector público La creación de soluciones de IA que mejoren la prestación, la eficiencia y la transparencia de los servicios públicos puede dar como resultado un gobierno que esté más familiarizado con las capacidades y los desafíos de la IA. Las organizaciones que trabajan mucho con agencias gubernamentales deberían considerar agregar acreditaciones relacionadas con la IA para ayudar con las licitaciones y el apoyo estratégico que la empresa luego puede brindar al gobierno.

Source link

Las organizaciones australianas necesitan generar confianza con los consumidores a través de los datos y la inteligencia artificial

Los datos globales de Cisco destacan una tendencia preocupante: las organizaciones australianas están empezando a quedarse atrás en una “brecha de confianza” entre lo que los clientes esperan que hagan con los datos y la privacidad y lo que realmente está sucediendo. Los nuevos datos muestran que el 90% de las personas quieren que las organizaciones se transformen para gestionar adecuadamente los datos y los riesgos. Con un entorno regulatorio que se ha quedado atrás, para que las organizaciones australianas puedan lograrlo, tendrán que avanzar más rápido que el entorno regulatorio. Las empresas australianas deben tomarse en serio Según un importante estudio global reciente de Cisco, más del 90% de las personas cree que la IA generativa requiere nuevas técnicas para gestionar los datos y los riesgos (Figura A). Mientras tanto, al 69% le preocupa la posibilidad de que los derechos legales y de propiedad intelectual se vean comprometidos, y al 68% le preocupa el riesgo de divulgación al público o a los competidores. Figura A: Preocupaciones de la organización y los usuarios con la IA generativa. Imagen: Cisco Básicamente, si bien los clientes aprecian el valor que la IA puede aportarles en términos de personalización y niveles de servicio, también se sienten incómodos con las implicaciones para su privacidad si sus datos se utilizan como parte de los modelos de IA. PREMIUM: Las organizaciones australianas deberían considerar una política de ética de IA. Alrededor del 8% de los participantes en la encuesta de Cisco eran de Australia, aunque el estudio no desglosa las preocupaciones anteriores por territorio. Los australianos tienen más probabilidades de violar las políticas de seguridad de los datos a pesar de las preocupaciones sobre la privacidad de los datos. Otras investigaciones muestran que los australianos son particularmente sensibles a la forma en que las organizaciones utilizan sus datos. Según una investigación de Quantum Market Research y Porter Novelli, el 74% de los australianos están preocupados por el ciberdelito. Además, al 45% le preocupa que se robe su información financiera y al 28% le preocupan sus documentos de identidad, como pasaportes y licencias de conducir (Figura B). Figura B: Los australianos están más preocupados por los datos financieros que por cualquier otra información personal. Imagen: Porter Novelli y Quantum Market Research Sin embargo, los australianos también tienen el doble de probabilidades que el promedio mundial de violar las políticas de seguridad de datos en el trabajo. Como dijo el vicepresidente y analista de Gartner, Nader Henein, las organizaciones deberían estar profundamente preocupadas por esta violación de la confianza del cliente porque los clientes estarán felices de tomar sus billeteras y caminar. “El hecho es que los consumidores de hoy están más que felices de cruzar el camino hacia la competencia y, en algunos casos, pagar una prima por el mismo servicio, si es allí donde creen que sus datos y los de su familia están mejor cuidados. “, Dijo Henein. La regulación voluntaria en las organizaciones australianas no es buena para la privacidad de los datos. Parte del problema es que, en Australia, hacer lo correcto en torno a la privacidad de los datos y la IA es en gran medida voluntario. VER: En qué deben centrarse los líderes australianos de TI antes de las reformas de privacidad. “Desde una perspectiva regulatoria, la mayoría de las empresas australianas se centran en la divulgación y presentación de informes sobre infracciones, dados todos los incidentes de alto perfil de los últimos dos años. Pero cuando se trata de aspectos básicos de privacidad, existen pocos requisitos para las empresas en Australia. Los principales pilares de la privacidad, como la transparencia, los derechos de privacidad del consumidor y el consentimiento explícito, simplemente faltan”, afirmó Henein. Sólo aquellas organizaciones australianas que han hecho negocios en el extranjero y se han topado con regulaciones externas han necesitado mejorar; Henein señaló como ejemplos el RGPD y las leyes de privacidad de Nueva Zelanda. Otras organizaciones deberán hacer de la generación de confianza con sus clientes una prioridad interna. Más cobertura de Australia Generar confianza en el uso de datos Si bien el uso de datos en IA puede no estar regulado y ser voluntario en Australia, hay cinco cosas que el equipo de TI puede (y debe) defender en toda la organización: Transparencia sobre la recopilación y el uso de datos: Transparencia en torno a la recopilación de datos se puede lograr a través de políticas de privacidad, formularios de consentimiento y opciones de exclusión voluntaria claros y fáciles de entender. Responsabilidad con la gobernanza de datos: todos en la organización deben reconocer la importancia de la calidad e integridad de los datos en la recopilación, el procesamiento y el análisis de datos, y deben existir políticas para reforzar el comportamiento. Alta calidad y precisión de los datos: la recopilación y el uso de datos deben ser precisos, ya que la información errónea puede hacer que los modelos de IA no sean confiables y, posteriormente, eso puede socavar la confianza en la seguridad y la gestión de los datos. Detección y respuesta proactivas a incidentes: un plan de respuesta a incidentes inadecuado puede provocar daños a la reputación y los datos de la organización. Control del cliente sobre sus propios datos: todos los servicios y funciones que implican la recopilación de datos deben permitir al cliente acceder, administrar y eliminar sus datos en sus propios términos y cuando lo desee. Autorregulación ahora para prepararse para el futuro Actualmente, la ley de privacidad de datos, incluidos los datos recopilados y utilizados en modelos de IA, está regulada por antiguas regulaciones creadas antes de que se utilizaran los modelos de IA. Por lo tanto, la única regulación que aplican las empresas australianas es la autodeterminada. Sin embargo, como dijo Henein de Gartner, existe mucho consenso sobre el camino correcto a seguir para la gestión de datos cuando se utilizan de estas formas nuevas y transformadoras. VER: Las organizaciones australianas se centrarán en la ética de la recopilación y el uso de datos en 2024. “En febrero de 2023, se publicó el Informe de revisión de la Ley de Privacidad con muchas buenas recomendaciones destinadas a modernizar la protección de datos en Australia”, dijo Henein. “Siete meses después, en septiembre de 2023, el Gobierno Federal respondió. De las 116 propuestas del informe original, el gobierno respondió favorablemente a 106”. Por ahora, algunos ejecutivos y juntas directivas pueden resistirse a la idea de una regulación autoimpuesta, pero el beneficio de esto es que una organización que pueda demostrar que está tomando estas medidas se beneficiará de una mayor reputación entre los clientes y será vista como que toma en cuenta sus preocupaciones. en torno al uso de datos en serio. Mientras tanto, algunos dentro de la organización podrían estar preocupados de que imponer la autorregulación pueda impedir la innovación. Como dijo Henein en respuesta a eso: «¿habría retrasado la introducción de cinturones de seguridad, zonas de deformación y bolsas de aire por temor a que estos aspectos frenaran los avances en la industria automotriz?» Ahora es el momento de que los profesionales de TI se hagan cargo y comiencen a cerrar esa brecha de confianza.

Source link

Los profesionales australianos de TI deben prepararse para la regulación de la IA

Recientemente se filtró la versión más reciente (y probablemente definitiva) de la inminente Ley de IA de la Unión Europea. Esta es la primera ley integral del mundo diseñada para regular el uso y la aplicación de la inteligencia artificial, y la historia muestra que, cuando la UE regula algo, el resto del mundo tiende a adoptarlo. Por ejemplo, las empresas que hacen negocios en Australia suelen cumplir con el RGPD, simplemente porque la ley europea así lo exige. Es probable que suceda lo mismo cuando la Ley de IA de la UE entre en vigor. A pesar de las recomendaciones del gobierno australiano de cumplir con la Ley de IA de la UE, no existen regulaciones obligatorias que regulen el uso de la IA en Australia. Dicho esto, las empresas australianas deberán comenzar a implementar las reglas propuestas por la ley de la UE si quieren continuar escalando y haciendo negocios con empresas de la UE o incluso empresas locales con asociaciones de la UE. El consejo del gobierno australiano es cumplir con la UE. Al igual que con el RGPD, el consejo de los funcionarios australianos es cumplir. Por ejemplo, como señaló la Cámara de Comercio Australiana Británica como guía para las organizaciones australianas: “La Ley de IA de la UE se aplica a todas las empresas que implementan sistemas de IA en el mercado de la UE o los ponen a disposición dentro de la UE, independientemente de su ubicación. En consecuencia, las empresas australianas que realicen cualquiera de las siguientes actividades deberán cumplir con la legislación: desarrollo y comercialización de sistemas de inteligencia artificial; implementar sistemas de inteligencia artificial; y utilizar sistemas de inteligencia artificial en sus productos o servicios”. Teniendo esto en cuenta, los profesionales australianos de TI deberían observar de cerca la regulación de la UE en torno a la IA. Es probable que se estandarice como mejor práctica incluso en ausencia de regulación local. El beneficio para las empresas australianas que cumplen con los requisitos de las regulaciones de IA de la UE es, al igual que con el GDPR, que una vez que lo hayan hecho, ya estarán esencialmente preparadas y cumplirán cuando el gobierno australiano introduzca regulaciones locales. Más cobertura de Australia Cinco cosas que los australianos deben saber sobre la Ley de IA de la UE Actualmente, Australia tiene legislación que cubre componentes de la IA, como la protección de datos, la privacidad y las leyes de derechos de autor. También existe un Marco Australiano de Ética de la IA, que es voluntario pero cubre gran parte de lo que las leyes de la UE pretenden legislar. PREMIUM: Las empresas deberían considerar la posibilidad de redactar una política de ética de IA. Los ocho principios centrales del Marco de Ética de la IA brindan a las organizaciones australianas una forma de pensar con “mejores prácticas” sobre cómo se debe crear y utilizar la IA, particularmente en lo que respecta a la seguridad, los beneficios y la justicia humana. El enfoque de la UE consiste esencialmente en tomar estas ideas filosóficas y convertirlas en regulaciones específicas que las organizaciones deben seguir. Por ejemplo, las cinco áreas clave que regularán las leyes de la UE son: Sistema de clasificación de riesgos para los sistemas de IA: variarán desde “mínimo” hasta “inaceptable” y, como se considera que la aplicación de IA tiene un riesgo “mayor”, es sujetos a mayores niveles de regulación. Obligaciones para los sistemas de IA de alto riesgo: la mayor parte de la regulación se centra en compromisos relacionados con garantizar la calidad de los datos, la transparencia, la supervisión humana y la rendición de cuentas. Prohibición de ciertos usos de la IA: Se prohibirán los usos de la IA que supongan un riesgo inaceptable para la dignidad humana, la seguridad o los derechos fundamentales, incluida la puntuación social, la manipulación subliminal o la vigilancia indiscriminada. Sistema de notificación y etiquetado para sistemas de IA: en aras de la transparencia y la rendición de cuentas, también habrá un sistema de notificación y etiquetado para sistemas de IA que interactúan con humanos, generan contenido o categorizan datos biométricos. Estructura de gobernanza: Esto involucrará a las autoridades nacionales, una Junta Europea de IA y una Oficina Europea de IA para supervisar la implementación y el cumplimiento de la Ley de IA. Fuera de esos modelos de IA de “alto riesgo” (y ese será un pequeño porcentaje localizado en verticales específicas como defensa y aplicación de la ley), la mayoría de los modelos de IA utilizados por las empresas orientadas al consumidor tendrán requisitos regulatorios ligeros. Además, en su mayor parte, las organizaciones australianas que habían adoptado todo el alcance de las directrices éticas que el gobierno australiano había propuesto no deberían encontrar dificultades para cumplir los requisitos de las leyes de la UE. La falta de una regulación obligatoria puede dejar a los profesionales australianos de datos e inteligencia artificial sin preparación para cumplir con el cumplimiento. Sin embargo, la naturaleza de las obligaciones voluntarias y la falta de una agenda regulatoria cohesiva significan que no toda la IA australiana se ha realizado teniendo en mente todo el alcance de las pautas éticas. VER: Australia no es el único país que desarrolló un código de conducta voluntario de IA. Esto podría causar desafíos más adelante si la organización decide que quiere escalar y ya ha incorporado procesos de IA que violan la regulación de la UE en su negocio. Por esta razón, las organizaciones con visión de futuro probablemente no seguirán el conjunto de pautas más estrictas. El incumplimiento limitará a las empresas australianas a nivel local y global. Una vez que estas leyes de la UE entren en vigor en junio, cualquiera que haya incorporado IA en cualquiera de sus productos y procesos tendrá que actuar rápidamente para lograr el cumplimiento. Según Boston Consulting Group, los requisitos de cumplimiento serán escalonados y las solicitudes de mayor riesgo tendrán el plazo más corto. Sin embargo, la mayoría de las organizaciones deberán cumplirlas en un plazo de 6 a 12 meses. Aquellos que no lo sean no podrán traer sus modelos de IA a Europa. Esto no sólo tendrá un impacto directo si quieren hacer negocios allí, sino que también significa que las asociaciones en torno a la IA con otras organizaciones que hacen negocios en Europa se volverán complicadas, si no imposibles. Por eso será particularmente importante que las organizaciones australianas se aseguren de que los modelos de IA que se utilizan cumplan con la Ley de IA de la UE, para no excluirse potencialmente de oportunidades comerciales a nivel local en Australia.

Source link

La IA de código abierto es excepcionalmente peligrosa


Esta es una publicación invitada. Las opiniones expresadas aquí son únicamente las del autor y no representan posiciones de IEEE Spectrum o IEEE. Cuando la gente piensa en aplicaciones de IA en estos días, probablemente piense en aplicaciones de IA de “código cerrado” como ChatGPT de OpenAI, donde el software del sistema está en manos seguras de su creador y de un conjunto limitado de socios examinados. Los usuarios cotidianos interactúan con estos sistemas a través de una interfaz web como un chatbot, y los usuarios empresariales pueden acceder a una interfaz de programación de aplicaciones (API) que les permite integrar el sistema de IA en sus propias aplicaciones o flujos de trabajo. Fundamentalmente, estos usos permiten a la empresa propietaria del modelo proporcionar acceso a él como un servicio, manteniendo al mismo tiempo seguro el software subyacente. El público no comprende tan bien la liberación rápida e incontrolada de potentes sistemas de IA no seguros (a veces llamados de código abierto). Un buen primer paso para comprender las amenazas que plantea la IA no segura es preguntar a los sistemas de IA seguros como ChatGPT, Bard o Claude. comportarse mal. La marca OpenAI aumenta la confusión. Si bien la compañía se fundó originalmente para producir sistemas de inteligencia artificial de código abierto, sus líderes determinaron en 2019 que era demasiado peligroso continuar publicando el código fuente y los pesos de los modelos de sus sistemas GPT (las representaciones numéricas de las relaciones entre los nodos en su red neuronal artificial). ) para el publico. OpenAI está preocupado porque estos sistemas de IA que generan texto pueden usarse para generar cantidades masivas de contenido bien escrito pero engañoso o tóxico. Empresas como Meta (mi antiguo empleador) han actuado en la dirección opuesta y han optado por lanzar potentes sistemas de IA no seguros en el mercado. nombre de democratizar el acceso a la IA. Otros ejemplos de empresas que lanzan sistemas de inteligencia artificial no seguros incluyen Stability AI, Hugging Face, Mistral, EleutherAI y el Technology Innovation Institute. Estas empresas y grupos de defensa de ideas afines han logrado avances limitados en la obtención de exenciones para algunos modelos no seguros en la Ley de IA de la Unión Europea, que está diseñada para reducir los riesgos de los potentes sistemas de IA. Es posible que presionen para obtener exenciones similares en Estados Unidos a través del período de comentarios públicos establecido recientemente en la Orden Ejecutiva sobre IA de la Casa Blanca. Creo que el movimiento de código abierto tiene un papel importante en la IA. Con una tecnología que aporta tantas capacidades nuevas, es importante que ninguna entidad actúe como guardián del uso de la tecnología. Sin embargo, tal como están las cosas hoy, la IA no segura representa un riesgo enorme que aún no podemos contener. Comprender la amenaza de la AIA no segura Un buen primer paso para comprender las amenazas que plantea la IA no segura es preguntar a los sistemas de IA seguros como ChatGPT, Bard, o Claude por portarse mal. Podrías pedirles que diseñen un coronavirus más mortal, que den instrucciones para fabricar una bomba, que hagan fotografías desnuda de tu actor favorito o que escriban una serie de mensajes de texto incendiarios diseñados para enojar más a los votantes de los estados indecisos por la inmigración. Es probable que reciba rechazos corteses a todas estas solicitudes porque violan las políticas de uso de estos sistemas de inteligencia artificial. Sí, es posible hacer jailbreak a estos sistemas de inteligencia artificial y hacer que se comporten mal, pero a medida que se descubren estas vulnerabilidades, se pueden solucionar. Ingrese a los modelos no seguros. El más famoso es Meta’s Llama 2. Fue lanzado por Meta con una “Guía de uso responsable” de 27 páginas, que fue rápidamente ignorada por los creadores de “Llama 2 Uncensored”, un modelo derivado sin características de seguridad y alojado de forma gratuita. descárguelo en el repositorio de Hugging Face AI. Una vez que alguien lanza una versión “sin censura” de un sistema de IA no seguro, el creador original del sistema se ve en gran medida impotente para hacer algo al respecto. Tal como están las cosas hoy, la IA no segura plantea un riesgo enorme que aún no podemos contener. La amenaza que plantean los sistemas de IA no seguros radica en la facilidad de uso indebido. Son particularmente peligrosos en manos de actores de amenazas sofisticados, que podrían descargar fácilmente las versiones originales de estos sistemas de IA y desactivar sus funciones de seguridad, luego crear sus propias versiones personalizadas y abusar de ellas para una amplia variedad de tareas. Algunos de los abusos de los sistemas de IA no seguros también implican el aprovechamiento de canales de distribución vulnerables, como las redes sociales y las plataformas de mensajería. Estas plataformas aún no pueden detectar con precisión el contenido generado por IA a escala y pueden usarse para distribuir cantidades masivas de información errónea personalizada y, por supuesto, estafas. Esto podría tener efectos catastróficos en el ecosistema de la información y, en particular, en las elecciones. La pornografía deepfake no consensuada y altamente dañina es otro ámbito en el que la IA no protegida puede tener profundas consecuencias negativas. La IA no protegida también tiene el potencial de facilitar la producción de materiales peligrosos, como armas biológicas y químicas. La Orden Ejecutiva de la Casa Blanca hace referencia a los riesgos químicos, biológicos, radiológicos y nucleares (QBRN), y el Congreso de los EE. UU. está considerando varios proyectos de ley para abordar estas amenazas. Recomendaciones para las regulaciones de IA No necesitamos regular específicamente la IA no segura, casi Todas las regulaciones que se han discutido públicamente también se aplican a los sistemas de IA seguros. La única diferencia es que es mucho más fácil para los desarrolladores de sistemas de IA seguros cumplir con estas regulaciones debido a las propiedades inherentes de la IA segura y no segura. Las entidades que operan sistemas de IA seguros pueden monitorear activamente los abusos o fallas de sus sistemas (incluidos los prejuicios y la producción de contenido peligroso u ofensivo) y publicar actualizaciones periódicas que hagan que sus sistemas sean más justos y seguros. fuente La IA es EL problema sin resolver más importante en el plazo inmediato”.—Gary Marcus, Universidad de Nueva York Como tal, casi todas las regulaciones recomendadas a continuación se generalizan a todos los sistemas de IA. La implementación de estas regulaciones haría que las empresas se lo pensaran dos veces antes de lanzar sistemas de IA no seguros que estén listos para ser objeto de abuso. Acción regulatoria para los sistemas de IA Pausar todos los nuevos lanzamientos de sistemas de IA no seguros hasta que los desarrolladores hayan cumplido con los requisitos a continuación, y de manera que garanticen que las características de seguridad no puedan ser fácilmente eliminadas. eliminado por malos actores. Establecer el registro y la concesión de licencias (tanto retroactivas como continuas) de todos los sistemas de IA por encima de un cierto umbral de capacidad. Crear responsabilidad por “uso indebido razonablemente previsible” y negligencia: los desarrolladores de sistemas de IA deben ser legalmente responsables de los daños causados ​​a ambas personas. y para la sociedad. Establecer procedimientos de evaluación, mitigación y auditoría independiente de riesgos para los sistemas de IA que crucen el umbral mencionado anteriormente. Exigir mejores prácticas de marcas de agua y procedencia para que el contenido generado por IA esté claramente etiquetado y el contenido auténtico tenga metadatos que permitan a los usuarios comprender su procedencia. Exigir transparencia de los datos de capacitación y prohibir los sistemas de capacitación sobre información de identificación personal, contenido diseñado para generar contenido que incite al odio y contenido relacionado con armas biológicas y químicas. Exigir y financiar el acceso de investigadores independientes, brindando a los investigadores examinados y a las organizaciones de la sociedad civil acceso previo al despliegue a sistemas generativos de IA. para investigación y pruebas. Exigir procedimientos de “conozca a su cliente”, similares a los utilizados por las instituciones financieras, para las ventas de hardware potente y servicios en la nube diseñados para el uso de IA; restringir las ventas de la misma manera que se restringirían las ventas de armas. Divulgación obligatoria de incidentes: cuando los desarrolladores se enteran de vulnerabilidades o fallas en sus sistemas de inteligencia artificial, deben estar legalmente obligados a informar esto a una autoridad gubernamental designada. Acción regulatoria para canales de distribución y ataques SurfacesRequiere la implementación de credenciales de contenido para las redes sociales, lo que otorga a las empresas una fecha límite para implementar el estándar de etiquetado de credenciales de contenido de C2PA.Automatiza las firmas digitales para que las personas puedan verificar rápidamente su contenido generado por humanos.Limita el alcance del contenido generado por IA: cuentas que no Se ha verificado que los distribuidores de contenido generado por humanos podrían tener ciertas características desactivadas, incluida la distribución viral de su contenido. Reducir los riesgos químicos, biológicos, radiológicos y nucleares educando a todos los proveedores de ácidos nucleicos personalizados u otras sustancias potencialmente peligrosas sobre las mejores prácticas. Gobierno AcciónEstablecer un organismo regulador ágil que pueda actuar y hacer cumplir rápidamente y actualizar ciertos criterios de cumplimiento. Esta entidad tendría el poder de aprobar o rechazar evaluaciones de riesgos, mitigaciones y resultados de auditorías y tendría la autoridad para bloquear el despliegue del modelo. Apoyar a las organizaciones de verificación de datos y a los grupos de la sociedad civil (incluidos los “indicadores confiables” definidos por los Servicios Digitales de la UE). Act) y exigir que las empresas de IA generativa trabajen directamente con estos grupos. Cooperar internacionalmente con el objetivo de crear eventualmente un tratado internacional o una nueva agencia internacional para evitar que las empresas eludan estas regulaciones. La reciente Declaración de Bletchley fue firmada por 28 países, incluidos los países de origen de todas las principales empresas de IA del mundo (Estados Unidos, China, Reino Unido, Emiratos Árabes Unidos, Francia y Alemania); esta declaración estableció valores compartidos y abrió un camino para reuniones adicionales. democratizar el acceso a la IA con infraestructura pública: una preocupación común sobre la regulación de la IA es que limitará el número de empresas que pueden producir sistemas de IA complicados a un pequeño puñado y tenderá hacia el monopolio. prácticas de negocios. Sin embargo, existen muchas oportunidades para democratizar el acceso a la IA sin depender de sistemas de IA no seguros. Una es mediante la creación de una infraestructura pública de IA con potentes modelos de IA seguros. “Creo que cómo regulamos la IA de código abierto es EL problema sin resolver más importante en el plazo inmediato”, dijo Gary Marcus, científico cognitivo, empresario y profesor emérito de Me lo dijo la Universidad de Nueva York en un reciente intercambio de correos electrónicos. Estoy de acuerdo y estas recomendaciones son sólo un comienzo. Inicialmente serían costosas de implementar y requerirían que los reguladores hicieran descontentos a ciertos lobistas y desarrolladores poderosos. Desafortunadamente, dados los incentivos desalineados en los actuales ecosistemas de inteligencia artificial y de información, es poco probable que la industria tome estas acciones a menos que se vea obligada a hacerlo. Si no se toman medidas como estas, las empresas que producen IA no segura pueden generar miles de millones de dólares en ganancias y, al mismo tiempo, trasladar los riesgos que plantean sus productos a todos nosotros.De los artículos de su sitioArtículos relacionados en la Web

Source link

Funciona con WordPress & Tema de Anders Norén