Kelly Carlin, la hija del comediante George Carlin, está criticando un especial de comedia generado por IA que imita la voz de su difunto padre. El martes, parecía que el comediante, que murió en 2008 a los 71 años de edad por insuficiencia cardíaca congestiva, estaba opinando sobre temas candentes contemporáneos, incluido el ex presidente Trump y los tiroteos masivos en Estados Unidos. En un especial de comedia de una hora, «George Carlin: I’m Glad I’m Dead», un robot de inteligencia artificial llamado Dudesy usa la voz de Carlin para lo que se describe como una suplantación que intenta capturar el «estilo icónico» del comediante para abordar los temas que trata. Se imagina que Carlin cubriría hoy. “¿Sabes cuánto aman los estadounidenses los reality shows? Nos encanta tanto que elegimos como presidente a un presentador de un reality show de televisión”, dice Dudesy con la voz de Carlin. “Bueno, nosotros no, yo estaba muerto en ese momento. Así que eligió como presidente a un presentador de un reality show de televisión. Y déjenme decirles que nunca me alegré más de estar muerto que el momento en que escuché que Donald Trump era el líder del mundo libre. Pero por increíble que fuera esa noticia, también tenía sentido para mí. Estados Unidos no ha tenido una buena m… desde Nixon”. El programa de inteligencia artificial Dudesy crea un podcast y un programa de YouTube presentado por el alumno de “Mad TV” Will Sasso y Chad Kultgen, productor, novelista y periodista. Kelly Carlin no está impresionada. Recurrió a las redes sociales para criticar la recreación de su padre. «Mi padre pasó toda su vida perfeccionando su oficio a partir de su vida, cerebro e imaginación muy humanos», escribió Kelly Carlin en X, anteriormente Twitter, el miércoles. “Ninguna máquina reemplazará jamás su genio. Estos productos generados por IA son intentos inteligentes de intentar recrear una mente que nunca volverá a existir. Dejemos que el trabajo del artista hable por sí solo. Los humanos tenemos tanto miedo al vacío que no podemos permitir que lo que ha caído en él se quede allí. «Aquí tienes una idea, ¿qué tal si escuchamos a algunos comediantes humanos reales?» ella continuó. “Pero si quieres escuchar al genuino George Carlin, tiene 14 especiales que puedes encontrar en cualquier lugar”. Más tarde agradeció a sus seguidores por su apoyo con respecto al “robot de IA (?) que arrogantemente cruzó una línea en el mundo. de comedia hoy que seguramente afectará a los artistas muertos y sus patrimonios ahora”, antes de criticar a Zelda Williams, la hija de Robin Williams; Melissa Rivers, la hija de Joan Rivers, y la cuenta X de Garry Shandling, administrada por su patrimonio. “Deberíamos hablar”, continuó. «Ellos vendrán por ti a continuación». En mayo pasado, el actor ganador del Oscar Tom Hanks intervino sobre la realidad moderna de que la inteligencia artificial podría hacer que su imagen apareciera en películas mucho después de su muerte. En un episodio de «The Adam Buxton Podcast, Hanks dijo que era una “posibilidad genuina” que la IA asumiera roles para él después de su muerte. “Mañana me puede atropellar un autobús. Y eso es todo, pero mis actuaciones pueden seguir y seguir y seguir y seguir y seguir”, dijo, “y fuera del entendimiento que se ha hecho con la IA o el deepfake, no habrá nada que les diga que no soy yo. y yo solo. Y tendrá cierto grado de calidad realista. Y ese es ciertamente un desafío artístico, pero también legal”. Buxton estuvo de acuerdo en que el potencial era real, pero argumentó que la gente sería capaz de diferenciar entre los Hanks vivos y respirables y los Hanks AI. “Sin duda, la gente lo hará. «Podré decirlo», coincidió Hanks. «Pero la pregunta es: ¿les importará?»
Source link
Etiqueta: voz
Los anuncios falsos generados por IA están volviendo a circular en las redes sociales, esta vez utilizando la voz y la imagen de Taylor Swift que promete juegos de utensilios de cocina Le Creuset gratuitos. Como todo Swiftie sabe, el cantante de “Hoax” es fanático de Le Creuset. En el documental de 2020 de la estrella del pop, “Miss Americana”, preparó un poco de salsa para pasta en la olla azul de la marca. Y en 2014, Swift sorprendió a la «superfan» Gena Gabrielle al asistir a su despedida de soltera con varios obsequios, incluidos dos artículos de la línea de utensilios de cocina de lujo. Los estafadores utilizaron tecnología de inteligencia artificial para crear una versión sintética de la voz de la cantante, la neoyorquina. Times informó el martes. El audio se reprodujo sobre varias imágenes de productos de Le Creuset y clips de Swift, algunos extraídos de su entrevista de 2016 con Vogue, “73 preguntas con Taylor Swift”, en la que la ganadora del Grammy ofrece al medio un recorrido por su casa mientras responde rápidamente. preguntas de fuego. En múltiples anuncios de redes sociales, la voz de Swift se manipula para que suene como si estuviera «encantada» de regalar a sus «fans leales» juegos de utensilios de cocina que están disponibles debido a un «error de embalaje». Los fanáticos solo necesitan ofrecer su información personal y pagar una tarifa de envío de $9,96. Un portavoz de Le Creuset dijo a The Times en un comunicado que la marca no está involucrada con Taylor Swift para ningún obsequio al consumidor. «Todos los obsequios o promociones aprobados de Le Creuset provienen de las cuentas sociales oficiales de Le Creuset», dice el comunicado. «Los consumidores siempre deben consultar las cuentas sociales oficiales y el sitio web de Le Creuset antes de hacer clic en cualquier anuncio sospechoso». El representante de Swift no respondió de inmediato a la solicitud de comentarios del Times. Los avances recientes en inteligencia artificial han facilitado la creación de deepfakes y clips de audio convincentes de celebridades. “Estas herramientas se están volviendo muy accesibles hoy en día”, dijo al New York Times Siwei Lyu, profesor de informática que dirige el Laboratorio Forense de Medios de la Universidad de Buffalo. Lyu añadió que podría llevar menos de 45 minutos hacer un “video de calidad decente”. Lyu continuó diciendo que el sorteo falso de Le Creuset probablemente se creó utilizando un servicio de conversión de texto a voz, que puede traducir un guión a una voz generada por IA y luego combinarlo con un vídeo mediante un software de sincronización de labios. En junio pasado, “Yellowstone La estrella y músico country Lainey Wilson vio cómo los estafadores utilizaban su voz y su imagen para vender gomitas para bajar de peso. El creador de éxitos de “Heart Like a Truck” compartió un video en Instagram criticando los anuncios falsos. “A estas alturas, estoy seguro de que muchos de ustedes habrán visto algunos anuncios sobre mí perdiendo peso, siendo hospitalizado y luego comencé a tomar algunas gomitas para bajar de peso y bla, bla, bla, me salvaron la vida. Bueno, sorpresa, no es así. cierto”, dijo. “La gente hará cualquier cosa para ganar un dólar, incluso si son mentiras porque nadie me envió gomitas… Los amo a todos. Simplemente no quiero que gastéis vuestro dinero en algo que no es real, no os dejéis engañar”. Y en septiembre, el actor ganador del Oscar Tom Hanks apareció en anuncios dentales deepfake. La estrella de “Asteroid City” rápidamente los derribó a través de su Instagram, compartiendo una imagen del video de la estafa con la leyenda: “¡Cuidado! Hay un vídeo que promociona un plan dental con una versión mía de IA. No tengo nada que ver con eso.» El año pasado, cuando un fuerte aumento en los anuncios falsos de celebridades comenzó a invadir Internet, USA Today compartió una guía para detectar videos generados por inteligencia artificial que explicaba las señales de alerta a tener en cuenta, incluidas la simetría perfecta, la distorsión, las proporciones inusuales y las texturas poco naturales. También hay herramientas de detección de IA a las que se puede acceder en línea, incluido AI or Not y Maybe’s AI Art Detector.
Source link
SACRAMENTO – Mientras los actores y escritores de Hollywood continúan en huelga para exigir mejores salarios y beneficios, los legisladores de California esperan proteger a los trabajadores para que no sean reemplazados por sus clones digitales. El miércoles, el asambleísta Ash Kalra (D-San José) presentó un proyecto de ley que daría a los actores y artistas una forma de anular disposiciones en contratos vagos que permiten a los estudios y otras empresas utilizar inteligencia artificial para clonar digitalmente sus voces, rostros y cuerpos. «Existe una creciente preocupación de que la tecnología se utilice para suplantar sus servicios», afirmó Kalra. “No hay duda de que toda persona tiene derecho a controlar su propia imagen y semejanza, así como su voz”. La inteligencia artificial puede generar imágenes, sonidos o incluso réplicas digitales, lo que alimenta la preocupación de que los estudios cinematográficos utilicen la tecnología para acabar con los empleos del entretenimiento. El uso de lo que se conoce como IA generativa ha sido un punto conflictivo en las negociaciones contractuales entre actores en huelga y estudios cinematográficos. Sindicatos como SAG-AFTRA, que representa a actores, locutores y otros trabajadores del entretenimiento, dicen que se necesitan más salvaguardias para protegerlos de la amenaza de la IA a sus medios de vida, incluso si llegan a un acuerdo favorable. El proyecto de ley, que se presentó el día antes de que concluya el jueves la sesión legislativa de California de 2023, es un adelanto de cómo los legisladores estatales esperan proteger a los trabajadores de los peligros potenciales de la IA. La legislación, el Proyecto de Ley 459 de la Asamblea, no será considerada por los legisladores hasta el próximo año. SAG-AFTRA, que ha estado en los piquetes con el Writers Guild of America, apoya la legislación. Los proyectos de ley para regular la IA, incluida la lucha contra la discriminación algorítmica, no lograron avanzar este año en el Capitolio estatal. Dado que las empresas tecnológicas y los estudios de Hollywood son fundamentales para la economía de California, los políticos también están tratando de equilibrar las preocupaciones de que la regulación gubernamental pueda perjudicar la innovación. El gobernador Gavin Newsom está actuando con cautela sobre el tema y a principios de este mes emitió una orden ejecutiva que ordena a las agencias estatales que examinen los beneficios y riesgos de la IA generativa. Según AB 459, los actores, artistas de voz y otros trabajadores que renunciaron a los derechos sobre su voz o imagen, permitiendo a las empresas hacer clones digitales o usarlos en otras aplicaciones de IA generativa, podrían escapar de esos contratos si no estuvieran representados. por un sindicato o abogado. Las disposiciones contractuales que no definan claramente los usos potenciales de una réplica digital generada por IA se considerarían “desmedidas” según la ley de California, lo que significa que no se pueden hacer cumplir. El proyecto de ley se aplicaría retroactivamente. «La velocidad con la que se han adoptado estas tecnologías significa que el impacto no es algo que pueda suceder algún día en el futuro, pero está sucediendo ahora mismo, a medida que los estudios buscan reemplazar a las personas reales con escaneos digitales», Duncan Crabtree-Ireland, SAG- dijo en un comunicado el director ejecutivo nacional y jefe negociador de AFTRA. Añadió que le complacía ver que la legislación «aborda la transferencia poco ética de la propia imagen y semejanza a través de acuerdos de explotación con artistas intérpretes o ejecutantes». La Alianza de Productores de Cine y Televisión, que representa a los estudios en las negociaciones laborales, afirmó en el pasado que cuando se trata de escritura de guiones, la IA plantea «cuestiones creativas y legales difíciles e importantes para todos». En lo que respecta a la actuación, la AMPTP ha pedido consentimiento informado y remuneración justa en los casos en que los actores sean replicados digitalmente. La Asociación Cinematográfica. y la Asociación de la Industria Discográfica. de América no tuvo una declaración sobre la legislación. La Entertainment Software Assn., que representa a la industria de los videojuegos, no respondió a una solicitud de comentarios. Los estudios de Hollywood ya utilizan tecnología para escanear los cuerpos y rostros de los actores para poder crear réplicas digitales de las escenas. James Earl Jones, quien expresó a Darth Vader en “Star Wars”, se retiró pero, según se informa, permitió a Disney y Lucasfilm usar inteligencia artificial y grabaciones de archivo para recrear su amenazadora e icónica voz. Pero los actores también podrían sentirse presionados a ceder los derechos de su voz o imagen digital o no entender completamente un contrato sin un abogado, dijo Kalra. Los extras de películas a quienes se les han copiado digitalmente los cuerpos también temen que serán reemplazados por sus réplicas digitales. Mientras tanto, las empresas de entretenimiento continúan ampliando sus operaciones de IA. Los escritores también han alegado que algunas empresas de tecnología están utilizando su trabajo para entrenar sistemas de inteligencia artificial sin su consentimiento. En julio, la comediante Sarah Silverman y los novelistas demandaron a la empresa matriz de Facebook, Meta, y a OpenAI, quienes desarrollaron una popular herramienta de inteligencia artificial generativa, ChatGPT, alegando que las empresas de tecnología utilizaron sus libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial. Kalra no fue el único legislador de California que presentó un proyecto de ley sobre IA el miércoles. El senador estatal Scott Wiener (D-San Francisco) dio a conocer un proyecto de ley que responsabilizaría a las empresas de tecnología por no prevenir los riesgos previsibles de seguridad de la IA, además de exigir transparencia y medidas de seguridad para ciertos sistemas de IA. Hora informada anteriormente en el proyecto de ley. «Como sociedad, cometimos un error al permitir que las redes sociales se adoptaran ampliamente sin evaluar primero los riesgos y poner barreras de seguridad», dijo Wiener en un comunicado. «Repetir el mismo error en torno a la IA sería mucho más costoso». A medida que continúan creciendo las preocupaciones sobre la amenaza potencial de la IA a la fuerza laboral creativa, Kalra dijo que los legisladores deben actuar ahora. «Tenemos que adelantarnos a esto y asegurarnos de proteger a quienes luchan por salir adelante, quienes podrían sentirse más obligados a firmar en la línea de puntos», dijo.
Source link
Hace un par de días, recibimos un correo electrónico de un suscriptor de IA, transmitiendo las razones de esa persona para votar «No» en el referéndum de Voice. Nos hizo reflexionar porque ha quedado muy claro que, si bien es absolutamente cierto decir que Voice fue descarrilada por una campaña bien coordinada respaldada por una serie de intereses creados (cuyos detalles aún están saliendo a la luz) e impulsada por la camarilla mediática, también es cierto que muchas personas simplemente no lo entendieron. Claramente no se comunicó adecuadamente el significado de la Voz y cómo funcionaría. También se hicieron muchas suposiciones sobre las personas que eligieron votar No, y por qué, las cuales, si no entendían lo que era, no ayudaron a cerrar la división y sólo sirvieron para galvanizar su incertidumbre y desconfianza. Los medios de comunicación, como IA, deben compartir la culpa por el fracaso del Referéndum de Voz. El dinero oscuro del hombre blanco: conozca a los financiadores de la campaña del No Lejos del movimiento de base que decía ser, la campaña del ‘No’ contra la Voz al Parlamento fue financiada por algunos de los más ricos de Australia. EL CORREO ELECTRÓNICO Cómo los medios le fallaron a Australia en la campaña del Referéndum La actuación de los principales medios de comunicación durante la campaña del Referéndum de la Voz fue un fracaso abyecto. RESPUESTA DE IA Las mentiras y falsedades de la ‘Voz’ refuerzan los llamados a una comisión real en los medios de comunicación La campaña del ‘No’ ganó el Referéndum enturbiando, tergiversando, contradiciendo y mintiendo sobre lo que es la Voz y sus consecuencias, escribe la Dra. Victoria Fielding. LA VOZ DE IA Hemos publicado extensamente a favor de la Voz. Más recientemente, las palabras, estudios e investigaciones de Ranald Macdonald, la Dra. Victoria Fielding y Anthony Klan han arrojado luz sobre este vergonzoso capítulo de nuestra historia. La Australia Independiente seguirá usando nuestra voz para publicar a favor de que los pueblos de las Primeras Naciones participen activamente en el proceso de toma de decisiones sobre sus propias vidas y el futuro de sus hijos. Rechazaremos los intentos arrogantes de encontrar soluciones a problemas que los australianos no indígenas no comprenden realmente. Y defenderemos los derechos de los Primeros Pueblos, que cuidaban de esta tierra durante 60.000 años antes de nuestro pálido, pero destructivo, período de 200 años en el tiempo. Este editorial se publicó originalmente como parte del boletín semanal Independent Australia, generalmente solo disponible para suscriptores, y se puede leer en línea en el Área exclusiva para miembros de IA. Puede seguir a la editora en jefe Michelle Pini en Twitter @vmp9. Siga a Independent Australia en Twitter @independentaus y en Facebook AQUÍ. El referéndum silencia a los primeros australianos A diferencia de las elecciones, lo que pasa con los referendos es que realmente no se puede ocultar la verdad.Artículos relacionados
Source link