Anthropic, una importante startup de inteligencia artificial generativa, expuso su caso de por qué las acusaciones de infracción de derechos de autor por parte de un grupo de editores de música y propietarios de contenido no son válidas en un nuevo expediente judicial el miércoles. En el otoño de 2023, editores de música, incluidos Concord, Universal y ABKCO, presentaron una demanda contra Anthropic acusándola de infracción de derechos de autor sobre su chatbot Claude (ahora reemplazado por Claude 2). La demanda, presentada en un tribunal federal de Tennessee (una de las “Ciudades de la Música” de Estados Unidos y hogar de muchos sellos y músicos), alega que el negocio de Anthropic se beneficia extrayendo “ilegalmente” letras de canciones de Internet para entrenar sus modelos de IA, que luego las reproducen. las letras con derechos de autor para los usuarios en forma de respuestas de chatbot. En respuesta a una moción de orden judicial preliminar, una medida que, de ser concedida por el tribunal, obligaría a Anthropic a dejar de poner a disposición su modelo Claude AI, Anthropic expuso argumentos familiares que han surgido en muchas otras disputas de derechos de autor relacionadas con datos de entrenamiento de IA. Las empresas de generación de IA como OpenAI y Anthropic dependen en gran medida de la recopilación de cantidades masivas de datos disponibles públicamente, incluidas obras protegidas por derechos de autor, para entrenar sus modelos, pero sostienen que este uso constituye un uso legítimo según la ley. Se espera que la cuestión de los derechos de autor de extracción de datos llegue a la Corte Suprema. Las letras de las canciones son sólo una ‘fracción minúscula’ de datos de entrenamiento. En su respuesta, Anthropic argumenta que su “uso de las letras de los demandantes para entrenar a Claude es un uso transformador” que agrega “un propósito adicional o un carácter diferente” a las obras originales. Para respaldar esto, la presentación cita directamente al director de investigación de Anthropic, Jared Kaplan, afirmando que el propósito es «crear un conjunto de datos para enseñar a una red neuronal cómo funciona el lenguaje humano». Anthropic sostiene que su conducta «no tiene ningún ‘impacto sustancialmente adverso’ en un mercado legítimo para las obras protegidas por derechos de autor de los demandantes», señalando que las letras de las canciones constituyen «una fracción minúscula» de los datos de capacitación y que otorgar licencias en la escala requerida es incompatible. Al unirse a OpenAI, Anthropic afirma que otorgar licencias para la gran cantidad de texto necesario para entrenar adecuadamente redes neuronales como Claude es técnica y financieramente inviable. La formación exige billones de fragmentos de distintos géneros y puede ser una escala de concesión de licencias inalcanzable para cualquier partido. Quizás el argumento más novedoso de la presentación afirma que los propios demandantes, no Anthropic, participaron en la “conducta volitiva” requerida para la responsabilidad por infracción directa con respecto a los productos. La “conducta voluntaria” en la ley de derechos de autor se refiere a la idea de que se debe demostrar que una persona acusada de cometer una infracción tiene control sobre los contenidos infractores. En este caso, Anthropic esencialmente está diciendo que los demandantes de la etiqueta hicieron que su modelo de IA Claude produjera el contenido infractor y, por lo tanto, tienen el control y son responsables de la infracción que informan, a diferencia de Anthropic o su producto Claude, que reacciona a entradas de los usuarios de forma autónoma. La presentación apunta a evidencia de que los resultados se generaron a través de los propios “ataques” de los demandantes a Claude diseñados para obtener letras. ¿Daño irreparable? Además de impugnar la responsabilidad por derechos de autor, Anthropic sostiene que los demandantes no pueden probar un daño irreparable. Citando la falta de evidencia de que los ingresos por licencias de canciones hayan disminuido desde el lanzamiento de Claude o que los daños cualitativos sean «ciertos e inmediatos», Anthropic señaló que los propios editores creen que los daños monetarios podrían compensarlos, contradiciendo sus propias afirmaciones de «daño irreparable» ( ya que, por definición, aceptar daños monetarios indicaría que los daños tienen un precio que podría cuantificarse y pagarse). Anthropic afirma que el “alivio extraordinario” de una orden judicial contra ella y sus modelos de IA no está justificado dada la débil demostración de daño irreparable de los demandantes. Sostiene que la solicitud de los editores de música es demasiado amplia y busca restringir el uso no sólo de las 500 obras representativas del caso, sino de millones de otras que los editores afirman además controlar. Además, la puesta en marcha de AI señaló el lugar de Tennessee y afirmó que la demanda se presentó en la jurisdicción incorrecta. Anthropic sostuvo que no tiene conexiones comerciales relevantes con Tennessee. La compañía señaló que su sede y operaciones principales se encuentran en California. Además, Anthropic declaró que ninguna de las conductas supuestamente infractoras citadas en la demanda, como entrenar su tecnología de inteligencia artificial o proporcionar respuestas a los usuarios, tuvo lugar dentro de las fronteras de Tennessee. La presentación señaló que los usuarios de los productos de Anthropic acordaron que cualquier disputa se litigaría en los tribunales de California. La lucha por los derechos de autor está lejos de terminar La batalla por los derechos de autor en la floreciente industria de la IA generativa continúa intensificándose. Más artistas se unieron a demandas contra generadores de arte como Midjourney y OpenAI con el modelo DALL-E de este último, lo que refuerza la evidencia de infracción a partir de reconstrucciones del modelo de difusión. El New York Times presentó recientemente una demanda por infracción de derechos de autor contra OpenAI y Microsoft, alegando que su uso del contenido extraído del Times para entrenar modelos para ChatGPT y otros sistemas de inteligencia artificial violaba sus derechos de autor. La demanda exige miles de millones en daños y exige que se destruyan todos los modelos o datos entrenados en el contenido del Times. En medio de estos debates, esta semana se lanzó un grupo sin fines de lucro llamado “Fairly Trained” que aboga por una certificación de “modelo con licencia” para los datos utilizados para entrenar modelos de IA. Las plataformas también han intervenido: Anthropic, Google y OpenAI, así como empresas de contenidos como Shutterstock y Adobe, han prometido defensas legales para los usuarios empresariales de contenido generado por IA. Sin embargo, los creadores no se dejan intimidar y luchan contra los intentos de desestimar las reclamaciones de autores como el de Sarah Silverman contra OpenAI. Los jueces deberán sopesar el progreso tecnológico y los derechos legales en disputas matizadas. Además, los reguladores están escuchando las preocupaciones sobre los alcances de la minería de datos. Las demandas y las audiencias del Congreso pueden decidir si el uso legítimo protege las apropiaciones de propiedad, frustrando a algunas y permitiendo a otras. En general, las negociaciones parecen inevitables para satisfacer a todos los involucrados a medida que madura la IA generativa. Lo que viene a continuación aún no está claro, pero la presentación de esta semana sugiere que las empresas de IA generativa se están uniendo en torno a un conjunto básico de defensas basadas en el uso legítimo y el daño, lo que obliga a los tribunales a sopesar el progreso tecnológico con el control de los propietarios de los derechos. Como VentureBeat informó anteriormente, hasta ahora ningún demandante de derechos de autor ha ganado una orden judicial preliminar en este tipo de disputas sobre IA. Los argumentos de Anthropic pretenden garantizar que este precedente persista, al menos hasta esta etapa de una de las muchas batallas legales en curso. El final está por verse. La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.

Source link