Únase a los líderes empresariales de Gen AI en Boston el 27 de marzo para una noche exclusiva de networking, conocimientos y conversaciones sobre la integridad de los datos. Solicite una invitación aquí. En caso de que no lo hayas notado, el rápido avance de las tecnologías de IA ha dado paso a una nueva ola de contenido generado por IA que va desde imágenes hiperrealistas hasta vídeos y textos atractivos. Sin embargo, esta proliferación ha abierto la caja de Pandora, desatando un torrente de posibles desinformación y engaños, desafiando nuestra capacidad de discernir la verdad de la mentira. Por supuesto, el temor de que nos estemos sumergiendo en lo sintético no es infundado. Desde 2022, los usuarios de IA han creado colectivamente más de 15 mil millones de imágenes. Para poner esta gigantesca cifra en perspectiva, a los humanos les tomó 150 años producir la misma cantidad de imágenes antes de 2022. La asombrosa cantidad de contenido generado por IA está teniendo ramificaciones que apenas estamos comenzando a descubrir. Debido al gran volumen de imágenes y contenido de IA generativa, los historiadores tendrán que ver Internet después de 2023 como algo completamente diferente a lo que existía antes, similar a cómo la bomba atómica retrasó la datación por carbono radiactivo. Muchas búsquedas de imágenes en Google ya arrojan resultados de IA genérica, y cada vez más vemos evidencia de crímenes de guerra en el conflicto entre Israel y Gaza denunciados como IA cuando en realidad no lo es. Incrustar ‘firmas’ en contenido de IA Para los no iniciados, los deepfakes son esencialmente contenido falsificado generado aprovechando algoritmos de aprendizaje automático (ML). Estos algoritmos crean imágenes realistas imitando expresiones y voces humanas, y la vista previa del mes pasado de Sora, el modelo de texto a video de OpenAI, solo mostró cuán rápido la realidad virtual se está volviendo indistinguible de la realidad física. Evento VB The AI ​​Impact Tour – Atlanta Continuando con nuestro recorrido, nos dirigimos a Atlanta para la parada del AI Impact Tour el 10 de abril. Este evento exclusivo al que solo se puede acceder por invitación, en asociación con Microsoft, incluirá debates sobre cómo la IA generativa está transformando la fuerza laboral de seguridad. El espacio es limitado, así que solicite una invitación hoy. Solicitar una invitación Muy acertadamente, en un intento preventivo por hacerse con el control de la situación y en medio de crecientes preocupaciones, los gigantes tecnológicos han entrado en escena, proponiendo soluciones para marcar la marea de contenido generado por IA con la esperanza de controlar la situación. . A principios de febrero, Meta anunció una nueva iniciativa para etiquetar imágenes creadas con sus herramientas de inteligencia artificial en plataformas como Facebook, Instagram y Threads, incorporando marcadores visibles, marcas de agua invisibles y metadatos detallados para señalar sus orígenes artificiales. Pisándole los talones, Google y OpenAI dieron a conocer medidas similares, con el objetivo de incorporar «firmas» dentro del contenido generado por sus sistemas de IA. Estos esfuerzos cuentan con el respaldo del protocolo de Internet de código abierto The Coalition for Content Provenance and Authenticity (C2PA), un grupo formado por Arm, BBC, Intel, Microsoft, Truepic y Adobe en 2021 con el objetivo de poder rastrear archivos digitales. orígenes, distinguiendo entre contenido genuino y manipulado. Estos esfuerzos son un intento de fomentar la transparencia y la responsabilidad en la creación de contenido, lo que por supuesto es una fuerza para el bien. Pero si bien estos esfuerzos son bien intencionados, ¿se trata de caminar antes de poder correr? ¿Son suficientes para protegerse realmente contra el posible uso indebido de esta tecnología en evolución? ¿O es una solución que llega antes de tiempo? ¿Quién decide qué es real? Lo pregunto sólo porque tras la creación de tales herramientas, rápidamente surge un problema: ¿puede la detección ser universal sin empoderar a quienes tienen acceso para explotarla? Si no es así, ¿cómo podemos evitar el uso indebido del sistema por parte de quienes lo controlan? Una vez más, volvemos al punto de partida y nos preguntamos ¿quién decide qué es real? Este es el elefante en la habitación, y antes de que se responda esta pregunta, mi preocupación es que no seré el único en notarlo. El Barómetro de Confianza Edelman de este año reveló importantes conocimientos sobre la confianza pública en la tecnología y la innovación. El informe destaca un escepticismo generalizado hacia la gestión de las innovaciones por parte de las instituciones y muestra que las personas en todo el mundo tienen casi el doble de probabilidades de creer que la innovación está mal gestionada (39%) que bien gestionada (22%), y un porcentaje significativo expresa preocupación por la rápida El ritmo del cambio tecnológico no beneficia a la sociedad en general. El informe destaca el escepticismo predominante que tiene el público sobre cómo las empresas, las ONG y los gobiernos introducen y regulan las nuevas tecnologías, así como las preocupaciones sobre la independencia de la ciencia de la política y los intereses financieros. A pesar de que la tecnología muestra repetidamente que a medida que las contramedidas se vuelven más avanzadas, también lo hacen las capacidades de los problemas que deben contrarrestar (y viceversa ad infinitum). Revertir la falta de confianza en la innovación por parte del público en general es donde debemos comenzar si queremos que las marcas de agua se mantengan. Como hemos visto, es más fácil decirlo que hacerlo. El mes pasado, Google Gemini fue criticado después de que utilizara imágenes de sombra (el método en el que el modelo de IA toma una indicación y la altera para ajustarse a un sesgo particular) hasta convertirlas en algo absurdo. Un empleado de Google recurrió a la plataforma X para afirmar que era «la situación más avergonzada» que jamás habían tenido en una empresa, y la propensión de los modelos a no generar imágenes de personas blancas la puso al frente y al centro de la guerra cultural. Siguieron disculpas, pero el daño ya estaba hecho. ¿No deberían los CTO saber qué modelos de datos utilizan? Más recientemente, un vídeo de la CTO de OpenAI, Mira Murati, siendo entrevistada por The Washington Post se volvió viral. En el clip, se le pregunta qué datos se utilizaron para entrenar a Sora; Murati responde con «datos disponibles públicamente y datos autorizados». Tras una pregunta de seguimiento sobre exactamente qué datos se han utilizado, admite que en realidad no está segura. Dada la enorme importancia de la calidad de los datos de entrenamiento, se podría suponer que esta es la pregunta central que un CTO necesitaría discutir cuando debería saber la decisión de comprometer recursos en un transformador de video. Su posterior cierre de la línea de interrogatorio (en una entrevista por lo demás muy amigable, debo agregar) también hace sonar las alarmas. Las únicas dos conclusiones razonables del clip son que ella es una CTO mediocre o una mentirosa. Por supuesto, habrá muchos más episodios como este a medida que esta tecnología se implemente en masa, pero si queremos revertir el déficit de confianza, debemos asegurarnos de que se establezcan algunas normas. La educación pública sobre cuáles son estas herramientas y por qué son necesarias sería un buen comienzo. La coherencia en la forma en que se etiquetan las cosas (con medidas implementadas que responsabilicen a las personas y entidades cuando las cosas van mal) sería otra adición bienvenida. Además, cuando las cosas inevitablemente salen mal, debe haber una comunicación abierta sobre por qué sucedió eso. En todo momento, la transparencia en todos y cada uno de los procesos es esencial. Sin tales medidas, me temo que las marcas de agua servirán como poco más que un parche, sin abordar los problemas subyacentes de la desinformación y la erosión de la confianza en el contenido sintético. En lugar de actuar como una herramienta sólida para la verificación de la autenticidad, podría convertirse simplemente en un gesto simbólico, muy probablemente eludido por quienes tienen la intención de engañar o simplemente ignorado por quienes suponen que ya lo han hecho. Como veremos (y en algunos lugares ya estamos viendo), la interferencia electoral ultrafalsa probablemente será la historia definitoria de la IA del año. Con más de la mitad de la población mundial dirigiéndose a las urnas y la confianza pública en las instituciones todavía firmemente en su punto más bajo, este es el problema que debemos resolver antes de que podamos esperar que algo como la marca de agua en el contenido flote en lugar de hundirse. Elliot Leavy es fundador de ACQUAINTED, la primera consultoría de IA generativa de Europa. DataDecisionMakers ¡Bienvenido a la comunidad VentureBeat! DataDecisionMakers es el lugar donde los expertos, incluidos los técnicos que trabajan con datos, pueden compartir conocimientos e innovación relacionados con los datos. Si desea leer sobre ideas de vanguardia e información actualizada, mejores prácticas y el futuro de los datos y la tecnología de datos, únase a nosotros en DataDecisionMakers. ¡Incluso podrías considerar contribuir con un artículo propio! Leer más de DataDecisionMakers

Source link