Las principales empresas de tecnología firmaron el viernes un pacto para adoptar voluntariamente “precauciones razonables” para evitar que se utilicen herramientas de inteligencia artificial para perturbar elecciones democráticas en todo el mundo. Ejecutivos de Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok se reunieron en la Conferencia de Seguridad de Múnich para anunciar un nuevo marco sobre cómo responder a los deepfakes generados por IA que engañan deliberadamente a los votantes. Otras doce empresas, incluida X de Elon Musk, también firmarán el acuerdo. «Todo el mundo reconoce que ninguna empresa de tecnología, ningún gobierno, ninguna organización de la sociedad civil es capaz de hacer frente por sí sola a la llegada de esta tecnología y su posible uso nefasto», dijo Nick Clegg, presidente de asuntos globales de Meta, el empresa matriz de Facebook e Instagram, en una entrevista antes de la cumbre. El acuerdo es en gran medida simbólico, pero apunta a imágenes, audio y video cada vez más realistas generados por IA «que falsifican o alteran engañosamente la apariencia, la voz o las acciones de candidatos políticos, funcionarios electorales y otras partes interesadas clave en una elección democrática, o que brindan información falsa a los votantes sobre cuándo, dónde y cómo pueden votar legalmente”. Las empresas no se comprometen a prohibir o eliminar los deepfakes. En cambio, el acuerdo describe los métodos que utilizarán para tratar de detectar y etiquetar contenido engañoso de IA cuando se cree o distribuya en sus plataformas. Señala que las empresas compartirán las mejores prácticas entre sí. entre sí y proporcionar «respuestas rápidas y proporcionadas» cuando ese contenido comience a difundirse. La vaguedad de los compromisos y la falta de requisitos vinculantes probablemente ayudaron a ganarse a un grupo diverso de empresas, pero los defensores decepcionados buscaban garantías más sólidas. «El lenguaje es «No es tan fuerte como uno podría haber esperado», dijo Rachel Orey, directora asociada principal del Proyecto Electoral en el Centro de Política Bipartidista. «Creo que deberíamos dar crédito a quien se lo merece y reconocer que las empresas tienen derechos adquiridos». «Hay interés en que sus herramientas no se utilicen para socavar elecciones libres y justas. Dicho esto, es voluntario y estaremos atentos a si lo cumplen». Clegg dijo que cada empresa «tiene, con razón, su propio conjunto de políticas de contenido». «No se trata de imponer una camisa de fuerza a todo el mundo», afirmó. «Y en cualquier caso, nadie en la industria piensa que se puede lidiar con un paradigma tecnológico completamente nuevo barriendo cosas debajo de la alfombra y tratando de jugar al topo y encontrar todo lo que cree que puede engañar a alguien». Varios líderes políticos de Europa y EE.UU. también se sumaron al anuncio del viernes. La vicepresidenta de la Comisión Europea, Vera Jourova, dijo que si bien un acuerdo de este tipo no puede ser integral, «contiene elementos positivos y de gran impacto». También instó a sus colegas políticos a asumir la responsabilidad de no utilizar herramientas de inteligencia artificial de manera engañosa y advirtió que la desinformación alimentada por la inteligencia artificial podría provocar “el fin de la democracia, no solo en los estados miembros de la UE”. El acuerdo alcanzado en la reunión anual de seguridad de la ciudad alemana se produce cuando más de 50 países celebrarán elecciones nacionales en 2024. Bangladesh, Taiwán, Pakistán y, más recientemente, Indonesia ya lo han hecho. como cuando las llamadas automáticas de IA que imitaban la voz del presidente estadounidense Joe Biden intentaron disuadir a la gente de votar en las elecciones primarias de New Hampshire el mes pasado. Apenas unos días antes de las elecciones de Eslovaquia en noviembre, grabaciones de audio generadas por IA se hicieron pasar por un candidato que discutía planes para aumentar los precios de la cerveza y manipular la elecciones. Los verificadores de hechos se apresuraron a identificarlos como falsos a medida que se difundieron en las redes sociales. Los políticos también han experimentado con la tecnología, desde el uso de chatbots de inteligencia artificial para comunicarse con los votantes hasta agregar imágenes generadas por inteligencia artificial a los anuncios. El acuerdo exige a las plataformas que » prestar atención al contexto y en particular a salvaguardar la expresión educativa, documental, artística, satírica y política”. Dijo que las empresas se centrarán en la transparencia hacia los usuarios sobre sus políticas y trabajarán para educar al público sobre cómo pueden evitar caer en falsificaciones de IA. La mayoría de las empresas han dicho anteriormente que están poniendo salvaguardas a sus propias herramientas de IA generativa que pueden manipular imágenes y sonido, al mismo tiempo que trabaja para identificar y etiquetar el contenido generado por IA para que los usuarios de las redes sociales sepan si lo que están viendo es real, pero la mayoría de las soluciones propuestas aún no se han implementado y las empresas se han enfrentado a presiones para hacer más. Esa presión aumenta en los EE. UU., donde el Congreso aún no ha aprobado leyes que regulen la IA en la política, lo que deja a las empresas en gran medida gobernarse a sí mismas. La Comisión Federal de Comunicaciones confirmó recientemente que los clips de audio generados por IA en llamadas automáticas son ilegales, pero eso no significa cubren audio deepfakes cuando circulan en las redes sociales o en anuncios de campaña. Muchas empresas de redes sociales ya cuentan con políticas para disuadir publicaciones engañosas sobre procesos electorales, generadas por IA o no. Meta dice que elimina información errónea sobre “las fechas, lugares, horas y métodos de votación, registro de votantes o participación en el censo”, así como otras publicaciones falsas destinadas a interferir con la participación cívica de alguien. Jeff Allen, cofundador del Integrity Institute y ex científico de datos de Facebook, dijo que el acuerdo parece un «paso positivo», pero aún le gustaría ver que las empresas de redes sociales tomen otras acciones para combatir la desinformación, como crear recomendaciones de contenido. sistemas que no priorizan el compromiso por encima de todo. Lisa Gilbert, vicepresidenta ejecutiva del grupo de defensa Public Citizen, argumentó el viernes que el acuerdo “no es suficiente” y que las empresas de inteligencia artificial deberían “retener la tecnología” como los generadores de texto a video hiperrealistas “hasta que haya recursos sustanciales y adecuados”. salvaguardias implementadas para ayudarnos a evitar muchos problemas potenciales”. Además de las empresas que ayudaron a negociar el acuerdo del viernes, otros firmantes incluyen a los desarrolladores de chatbots Anthropic e Inflection AI; la startup de clonación de voz ElevenLabs; Arm Holdings, diseñador de chips; las empresas de seguridad McAfee y TrendMicro; y Stability AI, conocido por crear el generador de imágenes Stable Diffusion. Cabe destacar la ausencia de otro popular generador de imágenes de IA, Midjourney. La startup con sede en San Francisco no respondió de inmediato a una solicitud de comentarios el viernes. La inclusión de X, no mencionada en un anuncio anterior sobre el acuerdo pendiente, fue una de las sorpresas del acuerdo del viernes. Musk redujo drásticamente los equipos de moderación de contenido después de hacerse cargo del antiguo Twitter y se describió a sí mismo como un “absolutista de la libertad de expresión”. En una declaración el viernes, Linda Yaccarino, directora ejecutiva de X, dijo que «cada ciudadano y empresa tiene la responsabilidad de salvaguardar elecciones libres y justas». «X se dedica a desempeñar su papel, colaborando con sus pares para combatir las amenazas de la IA y al mismo tiempo proteger la libertad de expresión y maximizar la transparencia». «, dijo. © Copyright 2024 The Associated Press. Todos los derechos reservados. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Source link