Semanas antes de la publicación de sus nuevas memorias, recuerda la periodista tecnológica Kara Swisher, su esposa notó algo extraño mientras buscaba el libro en Amazon. “Ella me dijo: ‘¿Qué es esta foto tuya? ¡Es extraño!’”, dijo Swisher. Swisher miró la pantalla y vio un libro que decía ser una nueva biografía de ella, con una imagen en la portada que inmediatamente identificó como una falsificación generada por IA. Si bien el libro prometía la historia interna de la vida de Swisher, el autor era alguien de quien nunca había oído hablar. Una mirada más cercana sugirió que el libro en sí podría haber sido generado en gran parte o en su totalidad por IA, sustituyendo descripciones genéricas de Swisher por detalles fácticos o anécdotas. Swisher estaba irritada, pero lo hizo caso omiso, dijo. Pero cuando volvió a mirar Amazon esta semana, vio que habían proliferado biografías suyas clonadas como spam, como informó por primera vez el blog de tecnología 404 Media. Cada uno tenía un título, un autor y una imagen falsa de ella ligeramente diferente en la portada. «Había docenas y docenas», dijo Swisher. “Me pregunté: ‘¿Qué está pasando aquí y por qué no lo detienen?’”. Swisher es sólo el último autor en descubrir que hoy en día vender un libro nuevo en Amazon a menudo significa competir por la atención de los lectores con imitaciones que signos de haber sido generados en gran parte o en su totalidad por herramientas de inteligencia artificial. Casi 10 meses después de que The Washington Post informara sobre uno de los primeros ejemplos conocidos de estos impostores, los autores dicen que el problema parece estar empeorando.“Cada vez es más fácil generar libros con IA, y estamos viendo más de ellos. ”, dijo Mary Rasenberger, directora ejecutiva del Authors Guild, un grupo comercial de autores. «Creo que vamos a enfrentarnos a una explosión de libros generados por IA antes de que podamos solucionar el problema». La lista de autores afectados es larga y las estafas han aumentado en variedad. Algunos afirman falsamente haber sido escritos por un autor real, como fue el caso de cinco libros que la analista de la industria editorial Jane Friedman encontró en Amazon bajo su nombre en agosto pasado. Algunos comparten el mismo título que un libro real, como el que el escritor técnico Chris Cowell señaló al Washington Post en mayo pasado. Algunos usan el mismo apellido que un autor real pero cambian el nombre, como le sucedió recientemente al escritor de jazz Ted Gioia. Algunos se anuncian como libros “complementarios” o “cuadernos de trabajo” de verdaderos bestsellers, como descubrió la presentadora de “Today” Savannah Guthrie cuando publicó su último libro. Otras son obras de ficción, como las novelas evidentemente generadas por IA que el verano pasado inundaron la lista de libros electrónicos más vendidos de Amazon con “Romance contemporáneo para adolescentes y jóvenes adultos”. Si bien es difícil demostrar definitivamente que un libro determinado fue generado por IA, las imitaciones tienden a ser autoeditados utilizando el servicio Kindle Direct Publishing de Amazon. A menudo llevan nombres de autores desconocidos, tienen una portada que se asemeja a los resultados de las herramientas de imágenes de IA y aparecen en Amazon poco antes del lanzamiento del libro genuino que están intentando sacar provecho. (El fundador de Amazon, Jeff Bezos, es propietario de The Washington Post). Amazon dijo que se está tomando el problema en serio, que ya ha tomado medidas para abordarlo y está trabajando en medidas adicionales. La empresa no prohíbe a los usuarios vender libros generados por herramientas de inteligencia artificial en su plataforma. Pero sí prohíbe el contenido que infrinja la propiedad intelectual, así como los libros cuyas descripciones sean engañosas o cuyo contenido sea “típicamente decepcionante” para los clientes. “Nuestro objetivo es brindar la mejor experiencia posible de compra, lectura y publicación, y estamos evaluando constantemente desarrollos que impactan esa experiencia, que incluye la rápida evolución y expansión de las herramientas de inteligencia artificial generativa”, dijo la portavoz de Amazon, Lindsay Hamilton. Hay productos extraños generados por inteligencia artificial en las tiendas. He aquí cómo evitarlos. Amazon ha tratado de frenar la marea limitando los autoeditores a tres libros por día. Y el año pasado comenzó a exigir a los autores de libros electrónicos que revelaran a Amazon el trabajo generado por IA, aunque la compañía no exige que lo revelen a los clientes. En la última medida de la compañía para limitar los libros con spam, dijo Hamilton, recientemente comenzó a limitar la publicación de “resúmenes” y “libros de trabajo” que afirman ser complementarios de libros reales escritos por humanos. Cuando aparecen informes de prensa sobre imitaciones de IA (algo cada vez más común), Amazon a menudo elimina los libros en cuestión de su sitio y, a veces, otros. junto con ellos. Hamilton dijo que la compañía también tiene «un conjunto sólido de métodos que nos ayudan a detectar de manera proactiva contenido que viola nuestras pautas, ya sea generado por IA o no», aunque no dijo cuáles son esos métodos. Algunos autores se preguntaron por qué una tecnología tan poderosa La empresa parece estar teniendo dificultades para solucionar el problema. El miércoles, una búsqueda de “libro de Kara Swisher” en Amazon arrojó como primer resultado las memorias reales de Swisher, “Burn Book”. Pero los siguientes 16 resultados fueron todos libros sobre Swisher publicados por otros autores en los últimos tres meses. La mayoría compartía algunas de las características comunes de los imitadores de IA: publicaciones propias, a menudo de corta extensión, sin signos de información o información original en su descripción o en las páginas de muestra que Amazon puso a disposición. Reseña del libro: Kara Swisher, una vez más, perfora lo hinchado egos de Silicon Valley El segundo libro de la lista, escrito por Cheryl D. Stackhouse y Brotherhood Press, se titulaba “El libro de Kara Swisher”. El texto de muestra alternaba entre describir a Swisher en tercera persona y escribir con su voz, e incluía citas sin sentido como: «Si no tienes confianza, no es posible que tengas confianza». Swisher dijo eso cuando vio el Ante la proliferación de imitaciones, envió un correo electrónico al director ejecutivo de Amazon, Andy Jassy, ​​cuya empresa ha cubierto muchas veces a lo largo de los años, para quejarse. El jueves, muchos habían sido retirados, incluido el de Stackhouse. Swisher dijo que apreciaba la respuesta, pero añadió que la mayoría de los autores no tienen ese tipo de acceso a los altos ejecutivos. «Lo que yo decía era: ‘Está bien, lo hiciste por mí y estás vigilando mi libro, ¿pero por qué no lo haces para todos?’” (La esposa de Swisher, Amanda Katz, es escritora de opinión para The Washington Post.) No está claro cuán profundamente investiga Amazon a los usuarios detrás de los libros que elimina. Si bien el libro de Stackhouse sobre Swisher desapareció el jueves, una búsqueda del nombre de Stackhouse en el sitio de Amazon reveló docenas de otros libros aún a la venta. La mayoría pretendía ser biografías de figuras famosas, y todas fueron publicadas en los últimos meses. Los intentos de un periodista del Post de localizar y contactar a cualquier autor con ese nombre no tuvieron éxito. Amazon se negó a proporcionar información sobre Stackhouse, citando la privacidad de los datos de sus clientes. A menudo, los libros que parecen ser imitaciones de IA tienen pocas o ninguna reseña de los clientes, una señal, al menos, de que no han engañado a un gran número de lectores. . Pero el autor de uno de los libros de Swisher, Max Thorne, también figura como autor de un libro sobre la asesina convicta Gypsy Rose Blanchard que tiene 26 reseñas, con un promedio de 2,2 estrellas. Una reseña lo llama «ni siquiera un libro», lamentándose: “¡¡Quiero que me devuelvan mis 12 dólares!!” Otro dice: «¡Esto es un robo!». Otras reseñas se titulan «Cuidado», «Pérdida de dinero», «Decepcionante» y «Nada bueno». Ese libro también seguía disponible en Amazon hasta el jueves. Los intentos de localizar la presencia en línea de un autor llamado Max Thorne no tuvieron éxito. Hamilton, de Amazon, dijo que la compañía suspende las cuentas de los editores «cuando los patrones de abuso lo justifican». Agregó que “el proceso y las pautas de la compañía seguirán evolucionando a medida que veamos cambios en las publicaciones impulsadas por IA para asegurarnos de mantener la mejor experiencia posible para los clientes y lectores por igual”. Friedman, la analista de la industria editorial que publicó libros falsos bajo su dirección. nombre el año pasado, dijo que desde entonces ha estado recibiendo llamadas y correos electrónicos de otros autores que han tenido experiencias similares. Dijo que entiende que Amazon probablemente no quiera estos libros en su sitio, pero se preguntó por qué una de las compañías tecnológicas más grandes del mundo no ha hecho más para detenerlos. Rasenberger dijo que el Authors Guild está presionando a Amazon para que comience a divulgar en su sitio. qué libros se generan con IA y que la empresa ha sido «receptiva». Dijo que el gremio también apoya un proyecto de ley presentado en el Congreso el año pasado por el senador Brian Schatz (D-Hawaii) que requeriría que las empresas de IA incluyan marcas en el contenido que producen sus herramientas para identificarlas como generadas por IA. Siguen apareciendo libros de imitación. El jueves, el periodista Byron Tau fue alertado sobre un libro electrónico en Amazon que decía ser una biografía suya cuando un amigo buscaba el nuevo libro de Tau, “Means of Control”. El imitador, titulado “BIOGRAFÍA DE BYRON TAU”, tenía solo 17 páginas y una muestra de texto contenía flagrantes errores fácticos. Tau dijo que envió un correo electrónico a la oficina de prensa de Amazon y que el título pronto fue eliminado. “Espero que Amazon encuentre una manera de acabar con esta práctica, porque devalúa el trabajo de las personas que pasan años investigando y escribiendo libros”, dijo Tau. «Es sólo una señal de que estos sistemas en los que todos confiamos son muy vulnerables a la gamificación». Drew Harwell contribuyó a este informe.

Source link