Un grupo de 20 empresas tecnológicas líderes anunció el viernes un compromiso conjunto para combatir la desinformación de la IA en las elecciones de este año. La industria está apuntando específicamente a los deepfakes, que pueden usar audio, video e imágenes engañosas para imitar a las partes interesadas clave en las elecciones democráticas o para proporcionar votos falsos. información.Microsoft, Meta, Google, Amazon, IBM, Adobe y el diseñador de chips Arm firmaron el acuerdo. Las startups de inteligencia artificial OpenAI, Anthropic y Stability AI también se unieron al grupo, junto con empresas de redes sociales como Snap, TikTok y las plataformas X.Tech se están preparando para un gran año de elecciones en todo el mundo que afectarán a más de cuatro mil millones de personas en más de 40 años. países. El aumento del contenido generado por IA ha generado serias preocupaciones sobre la desinformación relacionada con las elecciones, y el número de deepfakes que se han creado ha aumentado un 900 % año tras año, según datos de Clarity, una empresa de aprendizaje automático. El principal problema se remonta a la campaña presidencial de 2016, cuando los actores rusos encontraron formas fáciles y económicas de difundir contenido inexacto en las plataformas sociales. Los legisladores están hoy aún más preocupados por el rápido aumento de la IA. «Existen motivos para una seria preocupación sobre cómo la IA podría usarse para engañar a los votantes en las campañas», dijo Josh Becker, senador estatal demócrata en California, en una entrevista. «Es alentador ver que algunas empresas se sientan a la mesa, pero en este momento no veo suficientes detalles, por lo que probablemente necesitaremos una legislación que establezca estándares claros». Mientras tanto, las tecnologías de detección y marcas de agua utilizadas para identificar deepfakes no han avanzado rápidamente. suficiente para seguir el ritmo. Por ahora, las empresas apenas están acordando lo que equivale a un conjunto de estándares técnicos y mecanismos de detección. Les queda un largo camino por recorrer para combatir eficazmente el problema, que tiene muchas capas. Se ha demostrado que los servicios que afirman identificar texto generado por IA, como ensayos, por ejemplo, exhiben prejuicios contra hablantes no nativos de inglés. Y no es mucho más fácil para las imágenes y los videos. Incluso si las plataformas detrás de las imágenes y videos generados por IA aceptan incorporar cosas como marcas de agua invisibles y ciertos tipos de metadatos, hay formas de evitar esas medidas de protección. Las capturas de pantalla a veces pueden incluso engañar a un detector. Además, las señales invisibles que algunas empresas incluyen en las imágenes generadas por IA aún no han llegado a muchos generadores de audio y vídeo. La noticia del acuerdo llega un día después de que el creador de ChatGPT, OpenAI, anunciara Sora, su Nuevo modelo para vídeo generado por IA. Sora funciona de manera similar a la herramienta de inteligencia artificial de generación de imágenes de OpenAI, DALL-E. Un usuario escribe la escena deseada y Sora le devolverá un videoclip de alta definición. Sora también puede generar videoclips inspirados en imágenes fijas y ampliar vídeos existentes o completar fotogramas faltantes. Las empresas participantes en el acuerdo acordaron ocho compromisos de alto nivel, incluida la evaluación de riesgos de modelos, «buscar detectar» y abordar la distribución de dichos contenido en sus plataformas y brindar transparencia sobre esos procesos al público. Como ocurre con la mayoría de los compromisos voluntarios en la industria tecnológica y más allá, el comunicado especifica que los compromisos se aplican sólo «cuando sean relevantes para los servicios que proporciona cada empresa». «La democracia se basa en elecciones seguras y protegidas», dijo Kent Walker, presidente de asuntos globales de Google. , dijo en un comunicado. El acuerdo refleja el esfuerzo de la industria para abordar «la información electoral errónea generada por IA que erosiona la confianza», dijo. Christina Montgomery, directora de privacidad y confianza de IBM, dijo en el comunicado que en este año electoral clave, «se necesitan medidas concretas y cooperativas». necesario para proteger a las personas y las sociedades de los riesgos amplificados del contenido engañoso generado por IA». MIRAR: OpenAI presenta Sora

Source link