Las últimas semanas han sido una bonanza de relaciones públicas para Taylor Swift, tanto en lo bueno como en lo malo. Lo bueno es que su novio Travis Kelce estuvo en el equipo ganador del Super Bowl y sus reacciones durante el juego tuvieron mucho tiempo en el aire. En el lado mucho, mucho peor, recientemente imágenes falsas de ella desnuda creadas por IA generativa han inundado Internet. Como era de esperar, la condena de la creación y distribución de esas imágenes siguió rápidamente, incluso por parte de empresas de IA generativa (genAI) y, en particular, el director ejecutivo de Microsoft, Satya Nadella. Además de denunciar lo sucedido, Nadella compartió su opinión sobre una solución: “Vuelvo a lo que creo que es nuestra responsabilidad, que son todas las barreras que necesitamos colocar alrededor de la tecnología para que se produzca más contenido seguro. ”Microsoft volvió a intervenir ayer sobre el tema de los deepfakes (aunque sin mencionar a Swift). En una publicación de blog, el vicepresidente y presidente de Microsoft, Brad Smith, condenó la proliferación de deepfakes y dijo que la compañía está tomando medidas para limitar su propagación. «Desafortunadamente, las herramientas también se convierten en armas, y este patrón se repite», escribió. «Actualmente estamos siendo testigos de una rápida expansión del abuso de estas nuevas herramientas de IA por parte de malos actores, incluso a través de deepfakes basados ​​en videos, audio e imágenes generados por IA. Esta tendencia plantea nuevas amenazas para las elecciones, el fraude financiero y el acoso a través de actos no consensuados. pornografía y la próxima generación de acoso cibernético». Smith prometió «un enfoque sólido e integral» por parte de Microsoft, y agregó: «Estamos comprometidos con la innovación continua que ayudará a los usuarios a determinar rápidamente si una imagen o un video es generado o manipulado por IA. » Hasta donde llega, la opinión de Microsoft es ciertamente cierta y es la típica respuesta instintiva y polivalente que uno esperaría de la empresa de genAI más grande e influyente del mundo. Pero lo que Nadella y Smith omitieron es que hay evidencia de que las herramientas de inteligencia artificial de la compañía crearon las imágenes de Swift; Aún más condenatorio, un desarrollador de IA de Microsoft dice que advirtió a la compañía con anticipación que no existían barreras de seguridad adecuadas y que Microsoft no hizo nada al respecto. El caso contra MicrosoftLa evidencia de que se utilizaron herramientas de Microsoft para crear deepfakes proviene de un artículo de 404 Media, que afirma que se originaron en una comunidad de Telegram dedicada a crear «pornografía no consensuada»; recomienda utilizar Microsoft Designer para generar las imágenes pornográficas. El artículo señala que «Designer, en teoría, se niega a producir imágenes de personajes famosos, pero los generadores de IA son fáciles de engañar, y 404 descubrió que se pueden romper sus reglas con pequeños ajustes en las indicaciones». Más condenatorio aún, un ingeniero de IA de Microsoft supuestamente advirtió a Microsoft en Diciembre que las barreras de seguridad del generador de imágenes DALL-E de OpenAI, el cerebro detrás de Microsoft Designer, podrían evitarse para crear imágenes explícitas y violentas. Afirma que Microsoft ignoró sus advertencias y trató de que no dijera nada públicamente sobre lo que encontró. El ingeniero Shane Jones escribió en una carta a las senadoras estadounidenses Patty Murray (D-WA) y Maria Cantwell (D-WA); El representante Adam Smith (D-WA) y el fiscal general del estado de Washington, Bob Ferguson, dijeron que “descubrió una vulnerabilidad de seguridad que me permitió sortear algunas de las barreras diseñadas para evitar el [DALL-E] modelo de crear y distribuir imágenes dañinas…. Llegué a la conclusión de que DALL·E 3 representaba un riesgo para la seguridad pública y debería retirarse del uso público hasta que OpenAI pudiera abordar los riesgos asociados con este modelo. “Las vulnerabilidades en DALL·E 3 y productos como Microsoft Designer que usan DALL· E 3, facilita que las personas abusen de la IA para generar imágenes dañinas. Microsoft era consciente de estas vulnerabilidades y del potencial de abuso”. Jones afirmó que Microsoft se negó a actuar, publicó una carta pública sobre el problema en LinkedIn y luego su gerente le dijo que borrara la carta porque el departamento legal de Microsoft así lo exigía. En la carta, Jones menciona las imágenes explícitas de Swift y dice: «Este es un ejemplo del tipo de abuso que me preocupaba y la razón por la que insté a OpenAI a eliminar DALL·E 3 del uso público e informé de mis preocupaciones a Microsoft». Según GeekWire, Microsoft en un comunicado dijo que la compañía «investigó el informe del empleado y confirmó que las técnicas que compartió no pasaron por alto nuestros filtros de seguridad en ninguna de nuestras soluciones de generación de imágenes impulsadas por IA». , evidencia circunstancial. No hay confirmación de que las imágenes se crearon con Microsoft Designer y no sabemos si confiar en Microsoft o Jones. Pero sí sabemos que Microsoft tiene un historial de restar importancia o ignorar los peligros de genAI. Como escribí en mayo pasado, Microsoft recortó la plantilla de un equipo de 30 miembros que era responsable de garantizar que genAI se desarrollara de forma ética en la empresa, y Luego eliminó al equipo por completo. La reducción tuvo lugar varios meses antes del lanzamiento del chatbot genAI de Microsoft; La eliminación del equipo se produjo varios meses después. Antes del lanzamiento del chatbot, John Montgomery, vicepresidente corporativo de IA de Microsoft, le dijo al equipo por qué estaba siendo diezmado: “La presión de [CTO] kevin [Scott] y [CEO] Satya [Nadella] Es muy, muy alto tomar estos modelos OpenAI más recientes y los que les siguen y ponerlos en manos de los clientes a una velocidad muy alta”. Añadió que el equipo de ética se interpuso en el camino. Cuando un miembro del equipo respondió que existen peligros importantes en la IA que deben abordarse (y le pidió que lo reconsiderara), Montgomery respondió: “¿Puedo reconsiderarlo? No creo que lo haga. Porque lamentablemente las presiones siguen siendo las mismas. No tienes la vista que yo tengo y probablemente puedas estar agradecido por ello. Hay muchas cosas que se muelen hasta convertirlas en salchichas”. Una vez que el equipo se fue, Microsoft se puso en marcha con genAI. Y eso logró exactamente lo que la empresa quería. Las acciones de la empresa se han disparado y, gracias a la IA, se ha convertido en la empresa más valiosa del mundo: la segunda empresa (detrás de Apple) valorada en más de 3 billones de dólares. Son tres billones de razones por las que no debería esperarse que Microsoft cambie su sintonice los peligros potenciales de la IA, ya sea que se haya utilizado o no Microsoft Designer para crear los deepfakes de Taylor Swift. Y no augura nada bueno para las posibilidades de que se produzca un tsunami de deepfakes en el próximo año, especialmente con unas elecciones presidenciales disputadas en Estados Unidos. Copyright © 2024 IDG Communications, Inc.

Source link