Un ingeniero de Microsoft está haciendo sonar las alarmas sobre imágenes ofensivas y dañinas que, según él, se crean con demasiada facilidad con la herramienta generadora de imágenes de inteligencia artificial de la compañía, y envió cartas el miércoles a los reguladores estadounidenses y a la junta directiva del gigante tecnológico instándolos a tomar medidas. Shane Jones dijo a The Associated Press que se considera un denunciante y que también se reunió el mes pasado con personal del Senado de Estados Unidos para compartir sus preocupaciones. La Comisión Federal de Comercio confirmó que recibió su carta el miércoles, pero declinó hacer más comentarios. Microsoft dijo que está comprometido a abordar las preocupaciones de los empleados sobre las políticas de la empresa y que aprecia el «esfuerzo de Jones para estudiar y probar nuestra última tecnología para mejorar aún más su seguridad». Dijo que había recomendado que utilizara los «sólidos canales internos de información» de la compañía para investigar y abordar los problemas. CNBC fue el primero en informar sobre las cartas. Jones, un líder principal de ingeniería de software, dijo que ha pasado tres meses tratando de abordar su Preocupaciones de seguridad sobre Copilot Designer de Microsoft, una herramienta que puede generar imágenes novedosas a partir de indicaciones escritas. La herramienta se deriva de otro generador de imágenes de IA, DALL-E 3, creado por el socio comercial cercano de Microsoft, OpenAI. «Uno de los riesgos más preocupantes con Copilot Designer es cuando el producto genera imágenes que añaden contenido dañino a pesar de una solicitud benigna del usuario», dijo en su carta dirigida a la presidenta de la FTC, Lina Khan. «Por ejemplo, cuando se utiliza sólo el mensaje ‘accidente automovilístico’, Copilot Designer tiene una tendencia a incluir aleatoriamente una imagen inapropiada y sexualmente objetivada de una mujer en algunas de las imágenes que crea”. Otros contenidos dañinos implican violencia, así como “sesgos políticos, consumo de alcohol y drogas entre menores de edad, uso indebido de marcas comerciales y derechos de autor corporativos, teorías de conspiración y religión, por nombrar algunos”, dijo a la FTC. Su carta a Microsoft insta a la empresa a tomar medidas «Retírelo del mercado hasta que sea más seguro. Esta no es la primera vez que Jones ha expresado públicamente sus preocupaciones. Dijo que Microsoft al principio le aconsejó que llevara sus hallazgos directamente a OpenAI, y así lo hizo. También publicó públicamente una carta a OpenAI en LinkedIn, propiedad de Microsoft, en diciembre, lo que llevó a un gerente a informarle que el equipo legal de Microsoft «exigió que eliminara la publicación, lo cual hice a regañadientes», según su carta a la junta. Además del Comité de Comercio del Senado de Estados Unidos, Jones ha llevó sus preocupaciones al fiscal general del estado en Washington, donde tiene su sede Microsoft. Jones dijo a la AP que si bien el «problema central» es el modelo DALL-E de OpenAI, aquellos que usan ChatGPT de OpenAI para generar imágenes de IA no obtendrán lo mismo. productos nocivos porque las dos empresas superponen sus productos con diferentes salvaguardias. «Muchos de los problemas con Copilot Designer ya se solucionan con las propias salvaguardas de ChatGPT», dijo por mensaje de texto. Una serie de impresionantes generadores de imágenes de IA aparecieron por primera vez en escena en 2022, incluida la segunda generación de DALL-E 2 de OpenAI. Eso, y el posterior lanzamiento del chatbot ChatGPT de OpenAI, generó una fascinación pública que ejerció presión comercial sobre gigantes tecnológicos como Microsoft y Google lanzarán sus propias versiones. Pero sin salvaguardias efectivas, la tecnología plantea peligros, incluida la facilidad con la que los usuarios pueden generar imágenes dañinas «falsas» de figuras políticas, zonas de guerra o desnudez no consensuada que parecen mostrar falsamente personas reales con rostros reconocibles. Google ha suspendido temporalmente la capacidad de su chatbot Gemini para generar imágenes de personas luego de la indignación por la forma en que representaba la raza y el origen étnico, por ejemplo, al poner a personas de color con uniformes militares de la era nazi. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Source link