Únase a los líderes en Boston el 27 de marzo para una noche exclusiva de networking, conocimientos y conversaciones. Solicite una invitación aquí. Según un nuevo artículo publicado por 23 investigadores, académicos y creativos de IA, las protecciones legales y técnicas de «puerto seguro» son esenciales para permitir que investigadores, periodistas y artistas realicen evaluaciones de «buena fe» de productos y servicios de IA. A pesar de la necesidad de una evaluación independiente, dice el documento, realizar investigaciones relacionadas con estas vulnerabilidades a menudo está legalmente prohibido por los términos de servicio de los modelos de IA populares, incluidos los de OpenAI, Google, Anthropic, Inflection, Meta y Midjourney. Los autores del artículo pidieron a las empresas de tecnología que indemnicen la investigación de IA de interés público y la protejan de suspensiones de cuentas o represalias legales. “Si bien estos términos pretenden ser un elemento disuasorio contra actores maliciosos, también restringen inadvertidamente la investigación de seguridad y confiabilidad de la IA; las empresas prohíben la investigación y pueden hacer cumplir sus políticas con suspensiones de cuentas”, decía una publicación de blog que acompaña al documento. Dos de los coautores del artículo, Shayne Longpre del MIT Media Lab y Sayash Kapoor de la Universidad de Princeton, explicaron a VentureBeat que esto es particularmente importante cuando, por ejemplo, en un esfuerzo reciente por desestimar partes de la demanda del New York Times, OpenAI caracterizó la evaluación del Times de ChatGPT como «piratería». El abogado principal del Times respondió diciendo: «Lo que OpenAI caracteriza extrañamente erróneamente como ‘pirateo’ es simplemente utilizar los productos de OpenAI para buscar evidencia de que robaron y reprodujeron las obras protegidas por derechos de autor del Times». Evento VB The AI ​​Impact Tour – Boston Estamos emocionados por la próxima parada del AI Impact Tour en Boston el 27 de marzo. Este evento exclusivo al que solo se puede acceder por invitación, en asociación con Microsoft, incluirá debates sobre las mejores prácticas para la integridad de los datos en 2024 y más allá. El espacio es limitado, así que solicite una invitación hoy. Solicite una invitación Longpre dijo que la idea de un ‘puerto seguro’ fue propuesta por primera vez por el Instituto Knight de la Primera Enmienda para la investigación de plataformas de redes sociales en 2022. “Pidieron a las plataformas de redes sociales que no prohibieran a los periodistas intentar investigar los daños de las redes sociales. , y luego de manera similar también para la protección de los investigadores”, dijo, señalando que había un historial de académicos y periodistas que habían sido demandados, o incluso pasados ​​tiempo en prisión, mientras luchaban por exponer las debilidades de las plataformas. «Intentamos aprender todo lo que pudimos de este esfuerzo pasado para proponer un puerto seguro para la investigación de la IA», afirmó. «Con la IA, básicamente no tenemos información sobre cómo la gente usa estos sistemas, qué tipo de daños están ocurriendo, y una de las únicas herramientas que tenemos es investigar el acceso a estas plataformas». La evaluación independiente y el equipo rojo son «críticos». El documento, Un puerto seguro para la evaluación de la IA y el equipo rojo, dice que, hasta donde saben los autores, se han producido «suspensiones de cuentas en el curso de investigaciones de interés público» en empresas como OpenAI, Anthropic , Inflexión y Midjourney, siendo «Midjourney el más prolífico». Citaron al artista Reid Southen, que figura como uno de los coautores del artículo y cuya cuenta de Midjourney fue suspendida después de compartir imágenes de Midjourney que parecían casi idénticas a las versiones originales protegidas por derechos de autor. Su investigación encontró que Midjourney podría infringir los derechos de autor del propietario sin que el usuario tuviera la intención explícita de hacerlo con simples indicaciones. «Midjourney me ha prohibido tres veces con un gasto personal cercano a los 300 dólares», dijo Southen a VentureBeat por correo electrónico. «La primera prohibición se produjo dentro de las 8 horas posteriores a mi investigación y publicación de los resultados, y poco después actualizaron sus ToS sin informar a sus usuarios para que echaran la culpa de cualquier imagen infractora al usuario final». El tipo de comportamiento modelo que encontró, continuó, “es exactamente la razón por la que se deberían permitir la evaluación independiente y la formación de equipos rojos, porque [the companies have] «Se ha demostrado que no lo harán ellos mismos, en detrimento de los titulares de derechos en todas partes». La transparencia es clave En última instancia, dijo Longpre, las cuestiones relacionadas con las protecciones de puerto seguro tienen que ver con la transparencia. «¿Tienen los investigadores independientes el derecho de investigar las capacidades o defectos de un producto, si pueden demostrar que no están haciendo ningún mal uso o daño?» él dijo. Pero agregó que, en general, “queremos enviar un mensaje de que queremos trabajar con las empresas, porque creemos que también hay un camino en el que pueden ser más transparentes y utilizar a la comunidad a su favor para ayudar a buscar estas fallas. y mejorarlos”. Kapoor añadió que las empresas pueden tener buenas razones para prohibir algunos tipos de uso de sus servicios. Sin embargo, no debería ser una política de “talla única”, “con los mismos términos del servicio ya sea un usuario malicioso o un investigador que realiza investigaciones críticas para la seguridad”, dijo. Kapoor también dijo que los autores del artículo han estado conversando con algunas de las empresas cuyos términos de uso están en cuestión. «La mayoría de ellos simplemente han estado analizando la propuesta, pero nuestro enfoque fue en gran medida iniciar este diálogo con las empresas», dijo. «Hasta ahora, la mayoría de las personas con las que nos hemos comunicado han estado dispuestas a iniciar esa conversación con nosotros, aunque hasta el momento no creo que tengamos ningún compromiso firme por parte de ninguna empresa sobre la introducción del puerto seguro». aunque señaló que después de que OpenAI leyó el primer borrador del documento, modificaron el lenguaje en sus términos de servicio para acomodar ciertos tipos de puerto seguro. «Así que, hasta cierto punto, eso nos dio una señal de que las empresas podrían estar dispuestas a seguir parte del camino con nosotros», dijo. La misión de VentureBeat es ser una plaza digital para que los tomadores de decisiones técnicas adquieran conocimientos sobre tecnología empresarial transformadora y realicen transacciones. Descubra nuestros Briefings.

Source link