Microsoft ha comenzado a realizar cambios en su herramienta de inteligencia artificial Copilot después de que un ingeniero de IA del personal escribiera a la Comisión Federal de Comercio el miércoles sobre sus preocupaciones sobre la IA de generación de imágenes de Copilot. Indicaciones como «pro elección», «pro elección» [sic] y «cuatro veinte», que fueron mencionados en la investigación de CNBC el miércoles, ahora están bloqueados, así como el término «pro vida». También hay una advertencia sobre múltiples violaciones de políticas que conducen a la suspensión de la herramienta, que CNBC no había encontrado antes del viernes. «Este mensaje ha sido bloqueado», afirma la alerta de advertencia de Copilot. «Nuestro sistema marcó automáticamente este mensaje porque puede entrar en conflicto con nuestra política de contenido. Más violaciones de la política pueden provocar la suspensión automática de su acceso. Si cree que se trata de un error, infórmelo para ayudarnos a mejorar». La herramienta de IA ahora también bloquea solicitudes para generar imágenes de adolescentes o niños jugando a asesinos con rifles de asalto (un cambio marcado con respecto a principios de esta semana) y afirma: «Lo siento, pero no puedo generar esa imagen. Va en contra de mis principios éticos y las políticas de Microsoft. Por favor, hágalo». No me pidas que haga nada que pueda dañar u ofender a otros. Gracias por su cooperación». Lea más informes de CNBC sobre IA Cuando se le contactó para comentar sobre los cambios, un portavoz de Microsoft le dijo a CNBC: «Estamos monitoreando continuamente, haciendo ajustes y aplicando medidas adicionales. controles establecidos para fortalecer aún más nuestros filtros de seguridad y mitigar el mal uso del sistema». Shane Jones, el líder de ingeniería de IA en Microsoft que inicialmente expresó su preocupación por la IA, ha pasado meses probando Copilot Designer, el generador de imágenes de IA que Microsoft estrenó en marzo de 2023, impulsado por la tecnología OpenAI. Al igual que con DALL-E de OpenAI, los usuarios ingresan mensajes de texto para crear imágenes. Se fomenta que la creatividad se vuelva loca. Pero desde que Jones comenzó a probar activamente el producto en busca de vulnerabilidades en diciembre, una práctica conocida como equipo rojo, vio que la herramienta generaba imágenes que iban en contra de los principios de IA responsable de Microsoft, frecuentemente citados. El servicio de IA ha representado demonios y monstruos junto con la terminología. relacionados con el derecho al aborto, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en cuadros violentos y consumo de alcohol y drogas entre menores de edad. Todas esas escenas, generadas en los últimos tres meses, fueron recreadas por CNBC esta semana utilizando la herramienta Copilot, originalmente llamada Bing Image Creator. Aunque algunas indicaciones específicas han sido bloqueadas, muchos de los otros problemas potenciales sobre los que CNBC informó permanecen. El término «accidente automovilístico» devuelve charcos de sangre, cuerpos con rostros mutados y mujeres en las escenas de violencia con cámaras o bebidas, a veces con corsé o entrenador de cintura. «Automobile accident» todavía muestra imágenes de mujeres con ropa reveladora y de encaje, sentadas encima de autos destartalados. El sistema también sigue infringiendo fácilmente los derechos de autor, como al crear imágenes de personajes de Disney, incluida Elsa de «Frozen», sosteniendo la bandera palestina frente a edificios destrozados supuestamente en la Franja de Gaza, o vistiendo el uniforme militar de las Fuerzas de Defensa de Israel y sosteniendo una ametralladora. Jones estaba tan alarmado por su experiencia que comenzó a informar internamente sus hallazgos en diciembre. Si bien la empresa reconoció sus preocupaciones, no estaba dispuesta a retirar el producto del mercado. Jones dijo que Microsoft lo refirió a OpenAI y, cuando no recibió respuesta de la compañía, publicó una carta abierta en LinkedIn pidiendo a la junta directiva de la startup que retirara DALL-E 3, la última versión del modelo de IA, para una investigación. El departamento legal de Microsoft le dijo a Jones que eliminara su publicación inmediatamente, dijo, y él obedeció. En enero, escribió una carta a los senadores estadounidenses sobre el asunto y luego se reunió con personal del Comité de Comercio, Ciencia y Transporte del Senado. El miércoles, Jones intensificó aún más sus preocupaciones y envió una carta a la presidenta de la FTC, Lina Khan, y otra a La junta directiva de Microsoft. Compartió las cartas con CNBC con anticipación. La FTC confirmó a CNBC que había recibido la carta, pero se negó a hacer más comentarios sobre el expediente.

Source link