Más de 100 importantes investigadores de inteligencia artificial firmaron una carta abierta pidiendo a las empresas de inteligencia artificial generativa que permitan a los investigadores acceder a sus sistemas, argumentando que las reglas opacas de las empresas les impiden utilizar herramientas de prueba de seguridad que son utilizadas por millones de consumidores. Los investigadores dicen que existen protocolos estrictos Diseñados para evitar que los malos actores abusen de los sistemas de IA, en cambio, están teniendo un efecto paralizador en la investigación independiente. Estos auditores temen que se les prohíban sus cuentas o que los demanden si intentan probar la seguridad de los modelos de IA sin la aprobación de una empresa. La carta fue firmada por expertos en investigación, políticas y derecho de la IA, incluido Percy Liang, de la Universidad de Stanford; la periodista ganadora del premio Pulitzer Julia Angwin; Renée DiResta del Observatorio de Internet de Stanford; Deb Raji, miembro de Mozilla y pionera en la investigación sobre la auditoría de modelos de IA; la exfuncionaria del gobierno Marietje Schaake, ex miembro del Parlamento Europeo; y el profesor de la Universidad de Brown, Suresh Venkatasubramanian, ex asesor de la Oficina de Política Científica y Tecnológica de la Casa Blanca. La carta, enviada a empresas como OpenAI, Meta, Anthropic, Google y Midjourney, implora a las empresas de tecnología que proporcionen un puerto seguro legal y técnico para investigadores para interrogar sus productos. “Las empresas de IA generativa deberían evitar repetir los errores de las plataformas de redes sociales, muchas de las cuales han prohibido de hecho tipos de investigación destinadas a responsabilizarlas”, dice la carta. El esfuerzo se produce cuando las empresas de IA se están volviendo agresivas en excluyendo a los auditores externos de sus sistemas. OpenAI afirmó en documentos judiciales recientes que los esfuerzos del New York Times para encontrar posibles violaciones de derechos de autor estaban «pirateando» su chatbot ChatGPT. Los nuevos términos de Meta dicen que revocará la licencia de LLaMA 2, su último modelo de lenguaje grande, si un usuario alega que el sistema infringe los derechos de propiedad intelectual. Al artista del estudio de cine Reid Southen, otro firmante, se le prohibieron varias cuentas mientras probaba si el generador de imágenes Midjourney podía usarse para crear imágenes protegidas por derechos de autor de personajes de películas. Después de resaltar sus hallazgos, la compañía modificó el lenguaje amenazador en sus términos de servicio. “Si usted, a sabiendas, infringe la propiedad intelectual de otra persona y eso nos cuesta dinero, iremos a buscarlo y le cobraremos ese dinero”, dijo. Los términos dicen. “También podríamos hacer otras cosas, como intentar que un tribunal le obligue a pagar nuestros honorarios legales. No lo hagas”. Una propuesta de política adjunta, de la que son coautores algunos firmantes, dice que OpenAI actualizó sus términos para proteger la investigación académica sobre seguridad después de leer un borrador inicial de la propuesta, “aunque persiste cierta ambigüedad”. Por lo general, prohíben a los consumidores utilizar un servicio para generar contenido engañoso, cometer fraude, violar los derechos de autor, influir en las elecciones o acosar a otros. A los usuarios que infrinjan los términos se les pueden suspender o prohibir sus cuentas sin posibilidad de apelación. Pero para realizar investigaciones independientes, los investigadores a menudo infringen estas reglas a propósito. Debido a que las pruebas se realizan con su propio inicio de sesión, algunos temen que las empresas de inteligencia artificial, que todavía están desarrollando métodos para monitorear a posibles infractores de las reglas, puedan tomar medidas desproporcionadamente severas contra los usuarios que traen atención negativa a sus negocios. Aunque empresas como OpenAI ofrecen programas especiales para dar Al acceso de los investigadores, la carta argumenta que esta configuración fomenta el favoritismo, ya que las empresas seleccionan manualmente a sus evaluadores. La investigación externa ha descubierto vulnerabilidades en modelos ampliamente utilizados como GPT-4, como la capacidad de romper las salvaguardias al traducir entradas en inglés a idiomas menos utilizados como Hmong. Además del puerto seguro, las empresas deberían proporcionar canales directos para que los investigadores externos puedan informarles sobre los problemas con sus herramientas, dijo el investigador Borhane Blili-Hamelin, que trabaja con la organización sin fines de lucro AI Risk and Vulnerability Alliance. De lo contrario, la mejor manera de obtener visibilidad Por posibles daños puede ser avergonzar a una empresa en las redes sociales, dijo, lo que perjudica al público al reducir el tipo de vulnerabilidades que se investigan y deja a las empresas en una posición de confrontación. “Tenemos un ecosistema de supervisión roto”, dijo Blili-Hamelin. . “Claro, la gente encuentra problemas. Pero el único canal que puede tener un impacto son estos momentos de ‘te pillé’ en los que has pillado a la empresa con los pantalones bajados”.

Source link