En cierto modo, es el “pecado original” de la IA generativa: muchos de los modelos líderes como OpenAI y Meta han sido entrenados con datos extraídos de la web sin conocimiento previo ni permiso expreso de quienes los publicaron. Las empresas de IA que adoptaron este enfoque argumentan que es un juego limpio y legalmente permitido. Como lo expresó OpenAI en una publicación reciente de su blog: “Entrenar modelos de IA utilizando materiales de Internet disponibles públicamente es un uso legítimo, como lo respaldan precedentes de larga data y ampliamente aceptados. Consideramos que este principio es justo para los creadores, necesario para los innovadores y fundamental para la competitividad de Estados Unidos”. De hecho, el mismo tipo de extracción de datos se produjo mucho antes de que la IA generativa se convirtiera en la última sensación tecnológica y se utilizara para impulsar muchas bases de datos de investigación y productos comerciales populares, incluidos los mismos motores de búsqueda como Google en los que confiaban los carteles de datos para obtener tráfico y audiencia a sus proyectos. No obstante, existe una oposición vocal cada vez mayor a este tipo de extracción de datos, y numerosos autores y artistas de éxito de ventas demandan a varias empresas de inteligencia artificial por supuestamente infringir los derechos de autor al capacitarse en su trabajo sin consentimiento expreso. (VentureBeat utiliza algunas de las empresas demandadas, incluidas Midjourney y OpenAI, para crear ilustraciones de encabezado para nuestros artículos). Ahora ha surgido una nueva organización para apoyar a quienes creen que a los creadores de datos y carteles se les debe pedir consentimiento por adelantado antes de publicar su trabajo. utilizado en el entrenamiento de IA. Llamada «Fairly Trained», la organización sin fines de lucro anunció su existencia hoy, cofundada y dirigida por el director ejecutivo Ed Newton-Rex, un ex empleado que se volvió objetor vocal de Stability AI, la compañía detrás del ampliamente utilizado servicio de generación de imágenes de código abierto Stable Diffusion. , entre otros modelos de IA. «Creemos que hay muchos consumidores y empresas que preferirían trabajar con empresas de IA generativa que se entrenan con datos proporcionados con el consentimiento de sus creadores», se lee en el sitio web de la organización. ¿IA respetuosa? “Creo firmemente que existe un camino a seguir para la IA generativa que trata a los creadores con el respeto que merecen, y que la concesión de licencias de datos de capacitación es clave para lograrlo”, escribió Newton-Rex en una publicación en la red social X. “Si trabajas en o conoce una empresa de IA generativa que adopte este enfoque, espero que considere obtener la certificación”. Es difícil saber qué empresas de IA generativa se entrenan con datos extraídos y cuáles adoptan un enfoque más ético mediante la concesión de licencias. Por eso, hoy lanzamos Fairly Trained, una organización sin fines de lucro que certifica a las empresas de generación de inteligencia artificial por sus prácticas de datos de capacitación más justas. Nuestra primera certificación, llamada…— Ed Newton-Rex (@ednewtonrex) 17 de enero de 2024 VentureBeat contactó a Newton-Rex por correo electrónico y le pregunté sobre el argumento común de las principales empresas y defensores de la IA de que entrenar con datos disponibles públicamente es análogo a lo que los seres humanos ya hacen pasivamente cuando observan otras obras de arte y material creativo que luego pueden inspirarlos, conscientemente o no. Él no lo estaba permitiendo. Como escribió en respuesta: “Creo que el argumento es erróneo por dos razones. Primero, la IA escala. Una sola IA, entrenada en todo el contenido del mundo, puede producir suficiente producción para reemplazar la demanda de gran parte de ese contenido. Ningún ser humano individual puede escalar de esta manera. En segundo lugar, el aprendizaje humano es parte de un contrato social establecido desde hace mucho tiempo. Cada creador que escribió un libro, pintó un cuadro o compuso una canción, lo hizo sabiendo que otros aprenderían de ello. Eso estaba incluido en el precio. Este definitivamente no es el caso de la IA. Esos creadores no crearon ni publicaron su trabajo con la expectativa de que los sistemas de inteligencia artificial aprendieran de él y luego pudieran producir contenido competitivo a escala. El contrato social nunca ha existido para el acto de entrenamiento de IA. El entrenamiento con IA es una propuesta diferente del aprendizaje humano, basada en diferentes supuestos y con diferentes efectos. Debería tratarse como tal”. Me parece bien. Pero ¿qué pasa con las empresas que ya se han capacitado con datos publicados públicamente en línea? Netwton-Rex aconseja cambiar de rumbo y entrenar nuevos modelos con datos que se obtuvieron con el permiso del creador, idealmente otorgándoles una licencia, potencialmente por una tarifa. (Este es un enfoque que OpenAI ha adoptado últimamente con los medios de comunicación, incluidos The Associated Press y Axel-Springer, editor de Politico y Business Insider, y se informa que OpenAI paga millones anualmente por el privilegio de utilizar sus datos. Sin embargo, OpenAI ha seguido defender su derecho a recopilar y capacitarse sobre los datos públicos que recopila incluso sin acuerdos de licencia vigentes). “Mi única sugerencia es que [AI companies generally] cambiar su enfoque y pasar a un modelo de licencia. Todavía estamos en las primeras etapas de la evolución de la IA generativa y todavía hay tiempo para ayudar a contribuir a la creación de un ecosistema en el que el trabajo que realizan los creadores humanos y las empresas de IA sea mutuamente beneficioso”, nos escribió Newton-Rex. Certificación: por una tarifa Fairly Trained explicó las motivaciones detrás de su fundación en una publicación de blog: “Está surgiendo una división entre dos tipos de empresas de IA generativa: las que obtienen el consentimiento de los proveedores de datos de capacitación y las que no. alegando que no tienen obligación legal de hacerlo. Sabemos que hay muchos consumidores y empresas que preferirían trabajar con los primeros porque respetan los derechos de los creadores. Pero en este momento es difícil decir qué empresas de IA adoptan cada enfoque”. En otras palabras: Fairly Trained todavía quiere que las personas puedan utilizar herramientas y servicios de IA generativa. La organización simplemente quiere ayudar a los consumidores a encontrar y elegir herramientas capacitadas con datos con licencia expresa a empresas de inteligencia artificial para ese propósito, en lugar de buscar en la web cualquier cosa publicada públicamente. Para ayudar a los consumidores a tomar este tipo de decisión informada, Fairly Trained ofrece una «certificación de modelo con licencia (L) para proveedores de IA». El proceso de certificación del Modelo con licencia (L) se describe en el sitio web de Fairly Trained y, en última instancia, implica que una empresa de inteligencia artificial complete un formulario en línea y luego pase por un proceso de presentación por escrito más largo por parte de Fairly Trained, que culmina en una presentación por escrito y un posible seguimiento. preguntas. Fairly Trained cobra tarifas por este servicio a las empresas que buscan la certificación L en una escala móvil basada en los ingresos anuales de las empresas, que van desde una tarifa única de presentación de $150 + $500 anualmente hasta una tarifa única de $500 + $6,000 anualmente para las empresas. con ingresos que superan los 10 millones de dólares anuales. VentureBeat se comunicó con Newton-Rex por correo electrónico para preguntarle por qué la organización sin fines de lucro cobra tarifas, y él respondió que: “Cobramos tarifas para cubrir nuestros costos. Creo que las tarifas son lo suficientemente bajas como para no resultar prohibitivas para las empresas de IA generativa”. Algunas empresas ya han solicitado y recibido la certificación L para ofertas Fairly Trained, incluidas Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful y Tuney. Netwon-Rex dijo que el proceso de certificación para estas empresas de IA se llevó a cabo “durante el último mes aproximadamente”, pero se negó a comentar sobre qué empresas pagaron las tarifas y cuánto pagaron. Cuando se le preguntó acerca de otros servicios que se encuentran entre el enfoque de raspado público y el enfoque de licencia, como Adobe o Shutterstock, que dicen que los términos de servicio de su biblioteca de imágenes de archivo les permiten entrenar modelos de IA genérica en las obras de los creadores (entre otros usos), Newton -Rex también difirió. «Preferimos no comentar sobre modelos específicos que no hemos certificado», escribió. «Si sienten que han entrenado modelos que cumplen con nuestros requisitos de certificación, espero que soliciten la certificación». Asesores y partidarios destacados Entre los asesores de Fairly Trained, según su sitio web, se encuentran Tom Gruber, ex jefe de tecnología de Siri (adquirida por Apple), y Maria Pallante, presidenta y directora ejecutiva de la Asociación de Editores Estadounidenses. La organización sin fines de lucro también incluye entre sus partidarios a la Asociación de Editores Estadounidenses, la Asociación de Editores de Música Independientes, Concord (un grupo líder en música y audio) y Universal Music Group. Los dos últimos grupos están demandando a la empresa de inteligencia artificial Anthropic por la reproducción de letras de canciones protegidas por derechos de autor por parte de su chatbot Claude. Cuando se le preguntó si Fairly Trained estuvo involucrado en alguna demanda de IA por correo electrónico, Netwon-Rex respondió a VentureBeat por escrito diciendo: «No, no estoy involucrado en ninguna de las demandas». ¿Alguno de estos grupos está donando dinero a Fairly Certified? Netwon-Rex dijo que «no hay financiación en esta etapa» para la empresa, aparte de las tarifas que cobra por la certificación. La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.

Source link