Para no quedarse atrás, OpenAI anunció hoy que está actualizando su aplicación principal ChatGPT y el modelo de generador de imágenes de IA integrado en ella, DALL-E 3, para incluir un nuevo etiquetado de metadatos que permitirá a la empresa, y teóricamente a cualquier usuario o otra organización en la web, para identificar que las imágenes se crearon con herramientas de inteligencia artificial. La medida se produjo apenas unas horas después de que Meta anunciara una medida similar para etiquetar las imágenes de IA generadas a través de su generador de imágenes de IA independiente Imagine y disponibles en Instagram, Facebook y Threads (y, también, entrenadas en imágenes enviadas por los usuarios desde algunas de esas plataformas sociales). «Las imágenes generadas en ChatGPT y nuestra API ahora incluyen metadatos que utilizan especificaciones C2PA», publicó OpenAI en las plataformas sociales X y LinkedIn desde su cuenta corporativa. «Esto permite que cualquier persona (incluidas las plataformas sociales y los distribuidores de contenido) vea que nuestros productos generaron una imagen». OpenAI dijo que el cambio estaba vigente para la web en este momento y que se implementaría para todos los usuarios móviles de ChatGPT antes del 12 de febrero. Evento VB The AI ​​Impact Tour – NYC Estaremos en Nueva York el 29 de febrero en asociación con Microsoft para discutir cómo equilibrar los riesgos y las recompensas de las aplicaciones de IA. Solicite una invitación al evento exclusivo a continuación. Solicitar una invitación La compañía también incluyó un enlace a un sitio web llamado Content Credentials donde los usuarios pueden cargar una imagen para verificar si es generada por IA o no, gracias al nuevo código que está aplicando. Sin embargo, el cambio solo está vigente para las imágenes de IA recién generadas con ChatGPT y DALL-3; todas las generadas antes de hoy no tendrán los metadatos incluidos. ¿Qué es C2PA? La Coalición para la Procedencia y Autenticidad del Contenido, o C2PA, es un esfuerzo relativamente nuevo que surgió de la Joint Development Foundation, una organización sin fines de lucro compuesta por varias otras organizaciones que en última instancia están financiadas por empresas como Adobe, ARM, Intel, Microsoft ( inversor y socio comercial de OpenAI), The New York Times (actualmente demandando a OpenAI por infracción de derechos de autor), la BBC, CBC y varias empresas más de medios y tecnología. Se fundó en febrero de 2021, incluso antes de que se lanzara ChatGPT, con el objetivo de “desarrollar estándares técnicos para certificar la fuente y el historial o procedencia del contenido multimedia”, con el fin de “abordar la prevalencia de la desinformación, la desinformación y el fraude de contenido en línea”. .” En enero de 2022, C2PA publicó sus primeros estándares técnicos sobre cómo los desarrolladores de empresas y fabricantes de modelos de IA responsables pueden codificar metadatos (datos adicionales que no son vitales para la imagen en sí) que revelarán, en algunas circunstancias, que fue creada por una herramienta de IA. Esa misión ha adquirido una renovada urgencia últimamente, con ejemplos de alto perfil como los deepfakes explícitos y no consensuados generados por IA del músico ganador del premio Grammy Taylor Swift que se difunden ampliamente en la plataforma social X, así como también deepfakes explícitos no consensuados similares de alta estudiantes de la escuela entre sus pares. Por separado, pero de forma relacionada, se atribuyó a la clonación de voz y vídeo de IA una estafa en la que se engañó a un empleado con sede en Hong Kong, China, para que transfiriera 25 millones de dólares a estafadores de una empresa multinacional no identificada, y ya se está utilizando la clonación de voz para influir en los EE.UU. Ciclo electoral 2024. OpenAI dijo a principios de este año que introduciría C2PA en un esfuerzo por combatir la desinformación antes de las elecciones globales de 2024, y la noticia de hoy parece ser que la compañía está cumpliendo esa promesa. C2PA busca ayudar a las plataformas a identificar contenido generado por IA incorporando metadatos en forma de “firma” electrónica en el código real que conforma un archivo de imagen de IA, como se muestra en un ejemplo publicado por OpenAI en su sitio de ayuda. Imagen promocional que muestra el etiquetado de metadatos de imágenes generados por IA de OpenAI utilizando el estándar C2PA. Crédito: OpenAI Sin embargo, OpenAI admite fácilmente en su sitio de ayuda que: “Los metadatos como C2PA no son una solución milagrosa para abordar cuestiones de procedencia. Puede eliminarse fácilmente de forma accidental o intencionada. Por ejemplo, la mayoría de las plataformas de redes sociales actuales eliminan los metadatos de las imágenes cargadas, y acciones como tomar una captura de pantalla también pueden eliminarlos. Por lo tanto, una imagen que carece de estos metadatos puede o no haber sido generada con ChatGPT o nuestra API”. Además, estos metadatos no son visibles inmediatamente para un observador casual; en cambio, deben expandir o abrir la descripción del archivo para verlos. Meta, por el contrario, mostró hoy una vista previa de su esquema de etiquetado de IA para toda la plataforma, que sería público e incluiría un emoji brillante como un indicador inmediato para cualquier espectador de que una imagen fue creada con herramientas de IA. Imagen promocional de la marca de agua de imagen AI de Meta. Crédito: Meta Sin embargo, dijo que la función no comenzaría a implementarse hasta “los próximos meses” y que aún se estaba diseñando. También se basa en C2PA, así como en otro estándar llamado IPTC Photo Metadata Standard del Consejo Internacional de Telecomunicaciones de Prensa (IPTC). La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.

Source link