Todo lo que necesitas saber sobre tecnología

Etiqueta: voz Página 1 de 2

Randy Travis lanza su primera canción después de sufrir un derrame cerebral con la ayuda de una IA

Randy Travis lanza su primera canción después de sufrir un derrame cerebral con la ayuda de una IA

Por primera vez desde que sufrió un derrame cerebral, Randy Travis ha lanzado nueva música, con la ayuda de inteligencia artificial. El último sencillo de la estrella del country, «Where That Came From», llegó el viernes después de que Travis y su esposa, Mary Travis, permitieran a su sello discográfico recrear su conmovedora voz usando IA, según Associated Press. Hasta la semana pasada, Randy Travis no había lanzado nada nuevo en aproximadamente una década. Después de ser hospitalizado y diagnosticado con miocardiopatía viral (una enfermedad que ataca al corazón) en julio de 2013, el artista de «Forever and Ever, Amen» y «Deeper Than the Holler» sufrió un derrame cerebral y desarrolló afasia, un trastorno cerebral que ha limitado su capacidad para hablar. Cuando el copresidente de Warner Music Nashville, Cris Lacy, propuso la idea de aprovechar la inteligencia artificial para reproducir la voz del cantante, los Travis aprovecharon la oportunidad. «Bueno, estábamos todos sobre eso», dijo Mary Travis a AP, «estábamos muy emocionados». «Todo lo que siempre quise desde el día del derrame cerebral fue escuchar esa voz de nuevo». La tecnología de inteligencia artificial extrajo música de Randy Travis que abarca 28 años para crear su versión de «Where That Came From», una balada romántica escrita por Scotty Emerick y John Scott. El productor de Travis, Kyle Lehning, seleccionó la canción porque creyó que se adaptaría mejor a la voz del cantante. Mary Travis dijo a AP que el producto final conmovió a su esposo hasta las lágrimas. “Recuerdo haberlo visto cuando escuchó la canción por primera vez después de que estuvo terminada. Fue hermoso porque al principio, se sorprendió, y luego se puso muy pensativo, y estaba escuchando y estudiando”, dijo. “Y luego bajó la cabeza y sus ojos estaban un poco llorosos. Creo que pasó por todas las emociones posibles, en esos tres minutos de simplemente escuchar su voz nuevamente”. En abril, más de 200 músicos, incluidos Stevie Wonder, Billie Eilish y Nicki Minaj, firmaron una carta abierta instando a los desarrolladores de inteligencia artificial, las empresas de tecnología y las plataformas musicales a dejar de usar la inteligencia artificial “para infringir y devaluar los derechos de los artistas humanos”. El comunicado reconoció, sin embargo, que “la IA tiene un potencial enorme para hacer avanzar la creatividad humana” cuando se utiliza de forma responsable. Otros creativos, como los escritores, actores y artesanos de Hollywood, también han tomado medidas para mitigar la invasión de la IA. Randy Travis no es el único músico que ha adoptado la revolución de la IA. La semana pasada, el artista pop independiente Washed Out lanzó un video musical generado por IA para su nueva canción “The Hardest Part”. “Esto no es un truco publicitario ni un truco de salón”, dijo Lacy a AP después de lanzar “Where That Came From”. “Era importante tener una canción digna de él”.

Sony Music advierte a las empresas tecnológicas: no usen nuestra música para entrenar su IA

Sony Music advierte a las empresas tecnológicas: no usen nuestra música para entrenar su IA

Sony Music Group está enviando cartas a 700 desarrolladores de inteligencia artificial y servicios de transmisión de música advirtiéndoles que no usen la música de sus artistas para entrenar herramientas de IA generativa sin su permiso. La compañía, una de las tres firmas de música grabada más grandes, dijo que está optando explícitamente por no usar su música para entrenar o desarrollar modelos de IA a través de minería de texto o datos o raspado web en lo que respecta a letras, grabaciones de audio, obras de arte, composiciones musicales e imágenes. Los artistas de Sony Music Group incluyen a Celine Dion, Doja Cat y Harry Styles. «Apoyamos a los artistas y compositores que toman la iniciativa en la adopción de nuevas tecnologías en apoyo de su arte», dijo Sony Music Group en un comunicado en su sitio web el jueves. «Las evoluciones en la tecnología han cambiado con frecuencia el curso de las industrias creativas… Sin embargo, esa innovación debe garantizar que se respeten los derechos de los compositores y artistas de grabación, incluidos los derechos de autor». Las cartas fueron enviadas a empresas como OpenAI, creadora de ChatGPT con sede en San Francisco, y el gigante de búsquedas Google con sede en Mountain View, según una persona familiarizada con el asunto que no estaba autorizada a hablar públicamente. OpenAI y Google no respondieron de inmediato a las solicitudes de comentarios. La medida se produce en un momento en que la industria del entretenimiento está lidiando con rápidas innovaciones en tecnología de inteligencia artificial. Los escritores y actores expresaron su preocupación el verano pasado sobre si dejar la IA sin control podría amenazar sus medios de vida. Mientras tanto, algunos creativos se han maravillado con los avances que podrían permitirles perseguir ideas audaces con presupuestos ajustados. Este año, OpenAI presentó su herramienta de texto a video Sora, que se utilizó para crear un video musical de cuatro minutos para el artista musical Washed Out. El director del video le dijo a The Times que Sora lo ayudó a representar múltiples ubicaciones y efectos visuales que de otra manera no podría tener. Pero la IA también puede crear caos. Las celebridades han tenido que lidiar con «falsificaciones profundas»: videos o audios falsos que muestran a una celebridad respaldando ciertas marcas o actividades. Para ayudar a proteger a sus clientes contra el uso no autorizado de su voz e imagen, Creative Artists Agency, con sede en Century City, está ayudando a los talentos a crear sus propios dobles digitales. El jueves, dos actores de doblaje de Nueva York demandaron a la empresa de generadores de voz de IA con sede en Berkeley, Lovo, por uso no autorizado de sus voces. Lovo no respondió de inmediato a una solicitud de comentarios. La demanda fue presentada en el Tribunal de Distrito de Estados Unidos para el Distrito Sur de Nueva York. Algunas personas en la industria del entretenimiento han dicho que les gustaría que las empresas de inteligencia artificial fueran más transparentes sobre cómo están entrenando sus herramientas y si tienen los permisos de derechos de autor adecuados. OpenAI ha dicho que sus grandes modelos de lenguaje, incluidos los que impulsan ChatGPT, se desarrollan a través de información disponible públicamente en Internet, material adquirido a través de licencias con terceros e información que brindan sus usuarios y «entrenadores humanos». La compañía dijo en una publicación de blog que cree que entrenar modelos de inteligencia artificial con materiales disponibles públicamente en Internet es un «uso justo». Pero algunos medios de comunicación, incluido el New York Times, han demandado a OpenAI. El periódico alertó sobre cómo la empresa de tecnología está utilizando sus historias. En las cartas de Sony Music Group a las empresas de inteligencia artificial, la compañía dijo que tiene razones para creer que su contenido puede haber sido utilizado para entrenar, desarrollar o comercializar sistemas de inteligencia artificial sin su permiso, según una copia obtenida por el Times. Sony Music Group pidió a las empresas tecnológicas que proporcionaran información sobre ese uso y por qué era necesario. Sony Music Group, propiedad del gigante de la electrónica con sede en Tokio Sony Corp., también quiere que los proveedores de transmisión de música agreguen un lenguaje en sus términos de servicio que diga que los terceros no pueden extraer y entrenar usando el contenido de Sony Music Group, dijo la persona familiarizada con el asunto.

Scarlett Johansson rechazó la oferta de Sam Altman de ser la voz de ChatGPT

Scarlett Johansson rechazó la oferta de Sam Altman de ser la voz de ChatGPT

Cuando OpenAI estrenó su nueva tecnología de asistente de voz este mes, inmediatamente generó comparaciones con la película de ciencia ficción de 2013 de Spike Jonze, “Her”. Resulta que el parecido puede haber sido demasiado cercano para la comodidad. La actriz Scarlett Johansson, quien prestó su voz al programa de computadora en “Her”, dijo que contrató abogados después de descubrir que OpenAI lanzó una voz de ChatGPT que sonaba inquietantemente similar a la suya sin que ella diera permiso. En una declaración del lunes, Johansson dijo que el director ejecutivo de OpenAI, Sam Altman, se acercó a ella en septiembre para que prestara su voz al sistema ChatGPT 4.0, pero ella se negó a participar. Altman había insistido en que Johansson prestara su voz a la aplicación porque “sentía que mi voz sería reconfortante para la gente”, dijo Johansson en su declaración. Pero después de que ella se negó, se enojó y se sorprendió al escuchar una voz utilizada en una demostración por OpenAI que sonaba como la suya. Dos días antes de la demostración, Johansson dijo que Altman contactó a su agente para pedirle a la actriz que reconsiderara su decisión. En la película “Her”, Johansson interpreta a “Samantha”, la voz incorpórea de una computadora que brinda amistad y, eventualmente, amor a un hombre solitario interpretado por Joaquin Phoenix. “En un momento en el que todos estamos lidiando con deepfakes y la protección de nuestra propia imagen, nuestro propio trabajo, nuestras propias identidades, creo que estas son preguntas que merecen una claridad absoluta”, dijo Johansson en un comunicado. “Espero una resolución en forma de transparencia y la aprobación de la legislación adecuada para ayudar a garantizar que se protejan los derechos individuales”. OpenAI dijo el lunes que está pausando el uso de la voz conocida como “Sky”, que algunas personas dicen que suena como Johansson. “Hemos escuchado preguntas sobre cómo elegimos las voces en ChatGPT, especialmente Sky”, publicó OpenAI en X el lunes. “Estamos trabajando para pausar el uso de Sky mientras las abordamos”. Altman pareció invitar a hacer paralelismos con la película en su anuncio de la función de voz interactiva, diciendo en una publicación de blog que «se siente como la IA de las películas». «Her» fue nominada a múltiples premios Oscar, y Jonze ganó el premio de la Academia por guión original. El 13 de mayo, Altman publicó la palabra «her» en X, que muchos observadores interpretaron como una referencia directa a la película ganadora del Oscar. A pesar del sorprendente parecido sonoro, OpenAI dijo que Johansson en realidad no proporcionó la voz de Sky, una de las múltiples opciones de voz disponibles en la aplicación. En cambio, otra actriz estaba usando su propia «voz natural», dijo OpenAI en una publicación de blog del lunes. «Creemos que las voces de IA no deben imitar deliberadamente la voz distintiva de una celebridad», dijo la compañía. Altman en un comunicado dijo que la compañía había elegido al actor de doblaje detrás de la voz de Sky antes de comunicarse con Johansson. «La voz de Sky no es la de Scarlett Johansson, y nunca tuvo la intención de parecerse a la de ella», dijo Altman en un comunicado. “Por respeto a la Sra. Johansson, hemos dejado de usar la voz de Sky en nuestros productos. Lamentamos que no nos hayamos comunicado mejor”. La controversia llega en un momento en el que se han planteado inquietudes dentro de la industria del entretenimiento sobre si se utiliza material con derechos de autor para entrenar modelos de IA. OpenAI ha dicho que sus grandes modelos de lenguaje, incluidos los que impulsan ChatGPT, se desarrollan a través de información disponible públicamente en Internet; material adquirido a través de licencias con terceros; y datos que proporcionan sus usuarios y “entrenadores humanos”. La empresa ha dicho que cree que entrenar modelos de IA con materiales disponibles públicamente en Internet es un “uso justo”. Pero algunos medios de comunicación, incluido el New York Times, han demandado a OpenAI, preocupados por cómo la empresa tecnológica utiliza sus historias. Sony Music Group está en proceso de enviar cientos de cartas a desarrolladores de IA y servicios de transmisión de música, incluidos OpenAI y Google, advirtiéndoles de que no utilicen la música de sus artistas para entrenar herramientas de IA generativa sin su permiso. Los actores y escritores también han expresado su preocupación por el impacto de la IA en sus medios de vida. Las agencias de talentos están siendo proactivas en la protección de sus clientes contra el uso no autorizado de su imagen y voz. Creative Artists Agency, con sede en Century City, está ayudando a los clientes a través de Vault, que escanea los cuerpos de los clientes y registra sus movimientos y voces para crear una versión digital de ellos para protegerlos contra la infracción de los derechos de autor. Johansson es cliente de CAA. CAA se negó a hacer comentarios. OpenAI dijo que las voces para ChatGPT, llamadas Breeze, Cove, Ember, Juniper y Sky, son de actores de doblaje que pasaron por un proceso de audición. Más de 400 personas se postularon. Algunas de las características que OpenAI buscaba incluyen «una voz que se sienta atemporal» y «una voz accesible que inspire confianza». Los actores seleccionados vinieron a San Francisco para grabar sus voces en junio y julio de 2023, y sus voces se agregaron en septiembre de ese año, dijo la compañía. La compañía dijo que los actores fueron compensados ​​con «tarifas superiores a las del mercado» y que estaban al tanto de las intenciones y el alcance del proyecto. “Para proteger su privacidad, no podemos compartir los nombres de nuestros locutores”, dijo OpenAI.

OpenAI crea un comité de seguridad y protección a medida que aumentan las preocupaciones sobre la IA

OpenAI crea un comité de seguridad y protección a medida que aumentan las preocupaciones sobre la IA

El creador de ChatGPT, OpenAI, dijo el martes que formó un comité de seguridad para evaluar los procesos y salvaguardas de la compañía a medida que aumentan las preocupaciones sobre el uso de tecnología de inteligencia artificial en rápido desarrollo. Se espera que el comité demore 90 días en finalizar su evaluación. Después de eso, presentará a la junta directiva completa de la compañía recomendaciones sobre decisiones críticas de seguridad para proyectos y operaciones de OpenAI, dijo la firma en una publicación de blog. El anuncio se produce después de que dos líderes de alto nivel, el cofundador Ilya Sutskever y su colega ejecutivo Jan Leike, renunciaran a la empresa. Sus salidas generaron preocupaciones sobre las prioridades de la compañía, porque ambas se habían centrado en la importancia de garantizar un futuro seguro para la humanidad en medio del auge de la IA. Sutskever y Leike lideraron el llamado equipo de superalineación de OpenAI, cuyo objetivo era crear sistemas para frenar los riesgos a largo plazo de la tecnología. Al grupo se le asignó la tarea de “avances científicos y técnicos para dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros”. Tras su partida, Leike dijo que «la cultura y los procesos de seguridad de OpenAI han pasado a un segundo plano frente a los productos brillantes». El nuevo comité de seguridad de OpenAI está dirigido por el presidente de la junta, Bret Taylor, los directores Adam D’Angelo y Nicole Seligman y el director ejecutivo Sam Altman. Varios líderes técnicos y políticos de OpenAI también forman parte del comité. OpenAI dijo que «contratará y consultará con otros expertos técnicos y de seguridad para respaldar este trabajo». La formación del comité llega cuando la empresa comienza a trabajar en la capacitación de lo que llama su “modelo de próxima frontera” para la inteligencia artificial. «Si bien estamos orgullosos de construir y lanzar modelos que son líderes en la industria tanto en capacidades como en seguridad, damos la bienvenida a un debate sólido en este momento importante», dijo OpenAI en su publicación de blog. Las controversias sobre el uso de la IA han perseguido a San Francisco. empresa con sede, incluido el negocio del entretenimiento, que está preocupada por las implicaciones de la tecnología para la propiedad intelectual y el posible desplazamiento de trabajadores. La actriz Scarlett Johansson criticó a la compañía la semana pasada por su manejo de una función de voz ChatGPT que, según ella y otros, sonaba inquietantemente parecida a ella. Johansson, quien prestó su voz a un programa de inteligencia artificial en la película «Her», ganadora del Oscar de Spike Jonze, dijo que Altman se acercó a ella para pedirle que proporcionara su voz, pero ella se negó, solo para escuchar más tarde lo que sonaba como su voz en una demostración de OpenAI. .OpenAI dijo que la voz que aparece en la demostración no era la de Johansson sino la de otro actor. Después de que Johansson dio la alarma, OpenAI puso una pausa en su opción de voz, “Sky”, una de las muchas voces humanas disponibles en la aplicación. Un portavoz de OpenAI dijo que la formación del comité de seguridad no estaba relacionada con los problemas que involucran a Johansson. OpenAI es mejor conocido por ChatGPT y Sora, una herramienta de texto a video que tiene importantes ramificaciones potenciales para cineastas y estudios. OpenAI y otras empresas de tecnología han estado manteniendo conversaciones con Hollywood, mientras la industria del entretenimiento lidia con los efectos a largo plazo de la IA en el empleo y la creatividad. Algunos directores de cine y televisión han dicho que la IA les permite pensar con más audacia, probando ideas sin tener las limitaciones de efectos visuales y presupuestos de viaje limitados. A otros les preocupa que una mayor eficiencia a través de herramientas de inteligencia artificial pueda reducir puestos de trabajo en áreas como el maquillaje, la producción y la animación. Al enfrentarse a cuestiones de seguridad, el negocio de OpenAI, que cuenta con el respaldo de Microsoft, también debe lidiar con la competencia de otras empresas que están construyendo las suyas propias. Herramientas de inteligencia artificial y financiación. Anthropic, con sede en San Francisco, ha recibido miles de millones de dólares de Amazon y Google. El domingo, xAI, dirigida por Elon Musk, anunció que había cerrado una ronda de financiación de 6.000 millones de dólares destinada a investigación y desarrollo, construcción de infraestructura y lanzamiento de sus primeros productos al mercado.

Los legisladores de California intentan adelantarse a la IA

Los legisladores de California intentan adelantarse a la IA

Durante cuatro años, Jacob Hilton trabajó para una de las nuevas empresas más influyentes del Área de la Bahía: OpenAI. Su investigación ayudó a probar y mejorar la veracidad de modelos de IA como ChatGPT. Cree que la inteligencia artificial puede beneficiar a la sociedad, pero también reconoce los graves riesgos que corre si no se controla la tecnología. Hilton estuvo entre los 13 empleados actuales y anteriores de OpenAI y Google que firmaron este mes una carta abierta que pedía más protección para los denunciantes, citando acuerdos amplios de confidencialidad como problemáticos. «La situación básica es que los empleados, las personas más cercanas a la tecnología, también son los que tienen más que perder si sufren represalias por hablar», dice Hilton, de 33 años, ahora investigador en la organización sin fines de lucro Alignment Research Center. que vive en Berkeley. Los legisladores de California se están apresurando a abordar estas preocupaciones a través de aproximadamente 50 proyectos de ley relacionados con la IA, muchos de los cuales tienen como objetivo establecer salvaguardias en torno a esta tecnología en rápida evolución, que según los legisladores podría causar daños a la sociedad. Sin embargo, grupos que representan a las grandes empresas de tecnología argumentan que la legislación propuesta podría sofocar la innovación y la creatividad, haciendo que California pierda su ventaja competitiva y cambiando drásticamente la forma en que se desarrolla la IA en el estado. Los efectos de la inteligencia artificial en el empleo, la sociedad y la cultura son de gran alcance, y eso se refleja en la cantidad de proyectos de ley que circulan en la Legislatura. Cubren una variedad de temores relacionados con la IA, incluida la sustitución de empleos, la seguridad de los datos y la discriminación racial. Un proyecto de ley, copatrocinado por los Teamsters, tiene como objetivo exigir la supervisión humana de los camiones pesados ​​sin conductor. Un proyecto de ley respaldado por el Sindicato Internacional de Empleados de Servicios intenta prohibir la automatización o la sustitución de puestos de trabajo por sistemas de inteligencia artificial en los centros de llamadas que brindan servicios de beneficios públicos, como Medi-Cal. Otro proyecto de ley, redactado por el senador Scott Wiener (demócrata por San Francisco), exigiría que las empresas que desarrollen grandes modelos de IA realicen pruebas de seguridad. La gran cantidad de proyectos de ley se produjo después de que los políticos fueran criticados por no tomar medidas enérgicas lo suficientemente duras contra las empresas de redes sociales hasta que fue demasiado tarde. Durante la administración Biden, los demócratas federales y estatales se han vuelto más agresivos a la hora de perseguir a las grandes empresas tecnológicas. «Hemos visto con otras tecnologías que no hacemos nada hasta mucho después de que surge un gran problema», dijo Wiener. “Las redes sociales han aportado muchas cosas buenas a la sociedad… pero sabemos que han tenido importantes desventajas y no hicimos nada para reducir o mitigar esos daños. Y ahora estamos tratando de ponernos al día. Prefiero no ponerme al día”. El impulso se produce cuando las herramientas de inteligencia artificial avanzan rápidamente. Leen cuentos a los niños antes de dormir, clasifican los pedidos desde el auto en lugares de comida rápida y ayudan a hacer videos musicales. Mientras que algunos entusiastas de la tecnología se entusiasman con los beneficios potenciales de la IA, otros temen la pérdida de empleos y los problemas de seguridad. “Tomó a casi todo el mundo por sorpresa, incluidos muchos de los expertos, por la rapidez con la que [the tech is] progresando”, dijo Dan Hendrycks, director del Centro para la Seguridad de la IA, una organización sin fines de lucro con sede en San Francisco. «Si simplemente nos demoramos y no hacemos nada durante varios años, es posible que estemos esperando hasta que sea demasiado tarde». El proyecto de ley de Wiener, SB1047, que cuenta con el respaldo del Centro para la Seguridad de la IA, exige que las empresas que construyen grandes modelos de IA realicen pruebas de seguridad y tengan la capacidad de apagar los modelos que controlan directamente. Los proponentes del proyecto de ley dicen que protegería contra situaciones como La IA se utiliza para crear armas biológicas o cortar la red eléctrica, por ejemplo. El proyecto de ley también requeriría que las empresas de inteligencia artificial implementen formas para que los empleados presenten inquietudes de forma anónima. El fiscal general del estado podría presentar una demanda para hacer cumplir las normas de seguridad. «Una tecnología muy poderosa trae beneficios y riesgos, y quiero asegurarme de que los beneficios de la IA superen ampliamente los riesgos», dijo Wiener. Quienes se oponen al proyecto de ley, incluido TechNet, un grupo comercial que cuenta entre sus miembros con empresas tecnológicas como Meta, Google y OpenAI, dicen que los responsables políticos deberían actuar con cautela. Meta y OpenAI no respondieron a una solicitud de comentarios. Google se negó a hacer comentarios. «Avanzar demasiado rápido tiene sus propias consecuencias, potencialmente sofocando y reduciendo algunos de los beneficios que pueden venir con esta tecnología», dijo Dylan Hoffman, director ejecutivo para California y el suroeste de TechNet. El proyecto de ley fue aprobado por la Asamblea de Privacidad y Consumidor. Comité de Protección el martes y luego irá al Comité Judicial de la Asamblea y al Comité de Asignaciones de la Asamblea, y si se aprueba, al pleno de la Asamblea. Los defensores del proyecto de ley de Wiener dicen que están respondiendo a los deseos del público. En una encuesta de 800 votantes potenciales en California encargada por el Centro para el Fondo de Acción para la Seguridad de la IA, el 86% de los participantes dijo que era una prioridad importante para el estado desarrollar regulaciones de seguridad de la IA. Según la encuesta, el 77% de los participantes apoyó la propuesta de someter los sistemas de IA a pruebas de seguridad.“El status quo en este momento es que, cuando se trata de seguridad, dependemos de compromisos públicos voluntarios asumidos por estas empresas, ”, dijo Hilton, el ex empleado de OpenAI. «Pero parte del problema es que no existe un buen mecanismo de rendición de cuentas». Otro proyecto de ley con implicaciones radicales para los lugares de trabajo es el AB 2930, que busca prevenir la «discriminación algorítmica», o cuando los sistemas automatizados ponen a ciertas personas en desventaja basándose en su raza, género u orientación sexual cuando se trata de contratación, remuneración y despido. “Vemos ejemplo tras ejemplo en el espacio de la IA, donde los resultados están sesgados”, dijo la asambleísta Rebecca Bauer-Kahan (demócrata por Orinda). El proyecto de ley contra la discriminación fracasó en la sesión legislativa del año pasado, con una importante oposición de las empresas de tecnología. Reintroducida este año, la medida inicialmente contó con el respaldo de las empresas tecnológicas de alto perfil Workday y Microsoft, aunque han vacilado en su apoyo, expresando preocupaciones sobre enmiendas que otorgarían más responsabilidad a las empresas que desarrollan productos de inteligencia artificial para frenar los prejuicios. “Por lo general, no hay industrias que digan: ‘Regúlenme’, pero varias comunidades no confían en la IA, y lo que este esfuerzo intenta hacer es generar confianza en estos sistemas de IA, lo que creo que es realmente beneficioso para la industria. «, Dijo Bauer-Kahan. Algunos defensores de la privacidad laboral y de datos temen que el lenguaje en la legislación antidiscriminatoria propuesta sea demasiado débil. Los opositores dicen que es demasiado amplio. Chandler Morse, jefe de políticas públicas de Workday, dijo que la compañía apoya la AB 2930 tal como se presentó. «Actualmente estamos evaluando nuestra posición sobre las nuevas enmiendas», dijo Morse. Microsoft declinó hacer comentarios. La amenaza de la IA también es un grito de guerra para los sindicatos de Hollywood. El Writers Guild of America y el Screen Actors Guild-American Federation of Television and Radio Artists negociaron protecciones de IA para sus miembros durante las huelgas del año pasado, pero los riesgos de la tecnología van más allá del alcance de los contratos sindicales, dijo el director ejecutivo nacional del gremio de actores, Duncan. Crabtree-Irlanda. «Necesitamos que las políticas públicas se pongan al día y comiencen a implementar estas normas para que haya menos ambiente del Lejano Oeste con la IA», dijo Crabtree-Ireland. SAG-AFTRA ha ayudado a redactar tres proyectos de ley federales relacionados con deepfakes (imágenes y videos engañosos que a menudo involucran imágenes de celebridades), junto con dos medidas en California, incluida la AB 2602, que fortalecería el control de los trabajadores sobre el uso de su imagen digital. La legislación, si se aprueba, requeriría que los trabajadores estén representados por su sindicato o asesor legal para que los acuerdos que involucren imágenes generadas por IA sean legalmente vinculantes. Las empresas tecnológicas instan a tener precaución contra la regulación excesiva. Todd O’Boyle, del grupo de la industria tecnológica Chamber of Progress, dijo que las empresas de IA de California podrían optar por trasladarse a otra parte si la supervisión gubernamental se vuelve excesiva. Es importante que los legisladores «no permitan que los temores de daños especulativos impulsen la formulación de políticas cuando tenemos esta innovación tecnológica transformadora que puede crear tanta prosperidad en sus primeros días», dijo. Cuando se establecen regulaciones, es difícil revertirlos, advirtió Aaron Levie, director ejecutivo de Box, la empresa de computación en la nube con sede en Redwood City, que está incorporando IA en sus productos. «Necesitamos tener modelos más potentes que hagan aún más y sean más capaces», dijo Levie, «y luego comencemos a evaluar el riesgo de forma incremental a partir de ahí». Pero Crabtree-Ireland dijo que las empresas de tecnología están tratando de frenar la regulación haciendo que los problemas parezcan más complicados de lo que son y diciendo que deben resolverse en una propuesta integral de política pública. «Rechazamos eso por completo», dijo Crabtree-Ireland. «No creemos que todo lo relacionado con la IA deba resolverse de una vez».

Opinión: A medida que se adopta la IA, ¿qué sucede con los artistas cuyo trabajo fue robado para construirla?

Opinión: A medida que se adopta la IA, ¿qué sucede con los artistas cuyo trabajo fue robado para construirla?

En medio del revuelo que rodea al nuevo acuerdo de Apple con OpenAI, un tema ha sido en gran medida disimulado: los modelos fundamentales de la compañía de IA se construyen, y siempre se han construido, sobre el robo del trabajo de los profesionales creativos. El acuerdo con Apple no es la única noticia. de OpenAI. Entre las actualizaciones y controversias recientes, incluidas las deserciones de alto nivel, el mes pasado la compañía anunció silenciosamente Media Manager, cuyo lanzamiento está previsto para 2025. Una herramienta supuestamente diseñada para permitir a los creadores y propietarios de contenido controlar cómo se utiliza su trabajo, Media Manager es realmente una herramienta descarada. intento de evadir la responsabilidad por el robo de propiedad intelectual de los artistas del que OpenAI ya se está beneficiando. OpenAI dice que esta herramienta permitiría a los creadores identificar su trabajo y elegir si lo excluyen de los procesos de formación de IA. Pero esto no soluciona el hecho de que la compañía construyó sus modelos fundamentales utilizando las obras de autores y otros creadores sin consentimiento, compensación o control sobre cómo los usuarios de OpenAI podrán imitar los estilos de los artistas para crear nuevas obras. Como se describe, Media Manager impone a los creadores la carga de proteger su trabajo y no aborda las transgresiones legales y éticas pasadas de la empresa. Esta obertura es como que le roben sus objetos de valor de su casa y luego escuchar al ladrón decir: «No se preocupe, le daré la oportunidad de optar por no participar en futuros robos… el próximo año». Otros trabajadores creativos han pedido constantemente que OpenAI y otras empresas de IA generativa obtengan el consentimiento de los creadores antes de utilizar su trabajo para entrenar productos de inteligencia artificial, y que las organizaciones se abstengan de utilizar obras sin permiso expreso. En julio pasado, más de 16.000 autores firmaron una carta dirigida a las principales empresas de IA exigiendo que obtuvieran permiso y pagaran por los trabajos que utilizan para entrenar su IA. Sin embargo, OpenAI continúa pisoteando los derechos de los artistas y rechazando sus apelaciones, como vimos recientemente cuando lanzó un asistente de audio ChatGPT con una voz similar a la de Scarlett Johansson a pesar de las claras y repetidas negativas del actor. Aunque Johansson ganó su batalla, OpenAI “hizo una pausa” la voz ofensiva de sus ofertas después de que el actor amenazara con emprender acciones legales: la mejor oportunidad para la comunidad más amplia de artistas es unirse. La actitud arrogante de las empresas de IA hacia los derechos y el consentimiento de los creadores se extiende a personas de todos los niveles de fama. El año pasado, el Authors Guild, junto con otros 17 demandantes, demandó a OpenAI y Microsoft, exigiendo que los autores reciban lo que se les debe. Esa demanda está en curso y otros profesionales creativos y propietarios de derechos de autor también han emprendido acciones legales. Entre ellas se encuentran una demanda colectiva presentada por artistas visuales contra Stability AI, Runway AI, Midjourney y Deviant Art, una demanda de editores de música contra Anthropic por infracción de letras de canciones y demandas en los EE. UU. y el Reino Unido interpuestas por Getty Images contra Stability AI por infracción de derechos de autor de fotografías. Las empresas de IA a menudo argumentan que les sería imposible obtener licencias para todo el contenido que necesitan y que hacerlo detendría el progreso. Esto es sencillamente falso. OpenAI ha firmado una sucesión de acuerdos de licencia con editores grandes y pequeños. Si bien los términos exactos de estos acuerdos rara vez se hacen públicos, las estimaciones de compensación palidecen en comparación con los enormes desembolsos en potencia y energía informática que la empresa gasta fácilmente. Los pagos a los autores tendrían efectos mínimos en los fondos de guerra de las empresas de IA, pero recibir regalías por el uso de la capacitación en IA sería una nueva y significativa fuente de ingresos para una profesión que ya está sufriendo. Las ganancias de los autores han estado en precipitada caída durante más de una década. En 2022, el ingreso medio anual relacionado con la escritura para los escritores a tiempo completo fue de poco más de 20.000 dólares, casi un 50% menos que en 2009. Y los datos para 2023 parecen aún más sombríos. Los libros generados por IA, a veces catalogados como escritos por autores reales sin el permiso del escritor, inundan Amazon, donde cualquiera que busque podría comprarlos en lugar del trabajo creativo que el autor humano pasó meses o años escribiendo. Mientras tanto, OpenAI está valorada en 80 mil millones de dólares, Anthropic en 18,4 mil millones de dólares y la startup francesa de IA Mistral en 6,2 mil millones de dólares. Estas empresas afirman que necesitan nuestro trabajo para tener éxito, pero no pueden permitirse el lujo de pagarlo. Cualquier autor humano puede decirle que esta narrativa tiene flagrantes inconsistencias. No podemos confiar en las empresas de tecnología que juran que sus innovaciones son tan importantes que no necesitan pagar por uno de los ingredientes principales: los trabajos creativos de otras personas. El “futuro mejor” que OpenAI y otros nos venden es, de hecho, una distopía. Es hora de que los profesionales creativos nos unamos, exijamos lo que se nos debe y determinemos nuestro propio futuro. Mary Rasenberger es la directora ejecutiva del Authors Guild.

Apple anuncia un acuerdo con OpenAI.  ¿Será un punto de inflexión?

Apple anuncia un acuerdo con OpenAI. ¿Será un punto de inflexión?

Apple finalmente está dando el paso hacia la IA. La compañía dio a conocer el lunes un conjunto de nuevas capacidades de inteligencia artificial que estarán disponibles en su sistema operativo más nuevo, incluida la conexión de su función de voz interactiva Siri con ChatGPT de OpenAI en un acuerdo importante que podría impulsar la adopción de la tecnología de rápido desarrollo. Por ejemplo, podrá mostrar respuestas de ChatGPT para dispositivos Apple y proporcionar información contextual relevante en varias aplicaciones, dijo el gigante tecnológico de Cupertino, California, en su muy esperada conferencia de desarrolladores. La última actualización del sistema operativo del fabricante de iPhone, Mac y iPad también incluirá mejoras mejoradas con IA en sus capacidades de edición de fotografías y búsqueda de imágenes, entre otras cosas. El director ejecutivo de Apple, Tim Cook, describió las nuevas funciones basadas en IA de Apple, denominadas Apple Intelligence, como la El próximo gran paso para la empresa, que ha tardado en adoptar tecnología emergente que tiene el potencial de cambiar la forma en que las personas viven y trabajan. “Los recientes desarrollos en inteligencia generativa y grandes modelos de lenguaje ofrecen capacidades poderosas que brindan la oportunidad de aprovechar la experiencia de llevar los productos Apple a nuevas alturas”, dijo Cook en un discurso de apertura durante la Conferencia Mundial de Desarrolladores de Apple, donde la compañía presentó una vista previa del sistema iOS 18 y otras actualizaciones de software para productos como Mac y iPad. La medida señala las ambiciones más amplias de Apple en el creciente panorama de la IA, a medida que la tecnología ha progresado dramáticamente. Se han utilizado herramientas creadas por OpenAI, con sede en San Francisco, para crear videos musicales, leer cuentos antes de dormir a los niños y ayudar a generar ideas para los escritores. Empresas como Microsoft y Google han incorporado agresivamente la IA en sus productos y servicios. Apple a menudo no ha sido el primero en comercializar nuevos avances tecnológicos, sino que ha optado por ingresar a nuevas categorías de productos (incluidos teléfonos inteligentes y tabletas) una vez que se han establecido, lo que ha llevado a una adopción más amplia por parte de los consumidores. Por ejemplo, Apple empezó a vender sus propios auriculares de realidad virtual y aumentada (conocidos como Vision Pro) a principios de este año. Apple dijo que sus capacidades de inteligencia artificial se crearon teniendo en cuenta la protección de la privacidad. Apple Intelligence utiliza procesamiento en el dispositivo. Para solicitudes que requieren el uso de la nube, iPhone, iPad y Mac “no hablen con un servidor a menos que su software haya sido registrado públicamente para su inspección” y los datos no se retengan ni se expongan, dijo la compañía. Apple presentó varios usos para el nuevas funciones de IA. Por ejemplo, si un usuario de iPhone recibe una notificación de que una reunión de trabajo se ha trasladado a un momento posterior, puede preguntarle a Siri cuánto tiempo le tomaría llegar desde el lugar de la reunión hasta el lugar de juego de sus hijos esa noche. En otro caso hipotético, un usuario de iPad podría compartir una foto de un patio vacío y preguntarle a Siri qué plantas deberían agregarse. La compañía también dijo que los clientes pueden usar Apple Intelligence para hacer sugerencias para sus escritos, usándolo para analizar el tono de un correo electrónico con opciones para hacerlo más amigable o profesional. El anuncio del acuerdo con OpenAI «inicia una nueva frontera para Apple», dijo Daniel Ives, director gerente de Wedbush Securities, quien sigue a Apple. «Este fue un día histórico para Apple y Cook & Co. no nos decepcionó», dijo Ives, que tiene una calificación de «rendimiento superior» o «compra» para las acciones de la compañía, en una nota a los clientes. «Apple está tomando el camino correcto para implementar la IA en todo su ecosistema y, al mismo tiempo, sienta las bases para la estrategia plurianual de IA de la compañía en la base instalada más sólida de 2.200 millones de dispositivos iOS en los próximos años». Los inversores quedaron menos impresionados, lo que hizo que las acciones de Apple cayeran un 1,9% a 193,12 dólares por acción. Apple espera que agregar nuevas herramientas de inteligencia artificial a sus productos y servicios los haga más útiles para los clientes y, por lo tanto, más atractivos. La empresa se ha enfrentado a una serie de desafíos, incluida la desaceleración de las ventas de dispositivos en China. Ives dijo que la tecnología de inteligencia artificial introducida en el ecosistema de Apple brindará más oportunidades para que Apple genere ingresos. A través de su acuerdo con OpenAI, el asistente digital de Apple, Siri, puede preguntar a los usuarios de Apple si Siri puede transmitir una pregunta a ChatGPT para obtener más información. Esto permite a Apple aprovechar la plataforma ChatGPT y, a cambio, los usuarios de Apple también se familiarizan con ChatGPT y lo que puede hacer. Cada día, dijo Apple, Siri recibe 1.500 millones de solicitudes de voz. ChatGPT estará disponible de forma gratuita para los usuarios de Apple en sus sistemas operativos más nuevos para iPhone, iPad y Mac a finales de este año. Apple dijo que sus usuarios no necesitarán una cuenta con ChatGPT para usarlo en dispositivos Apple. OpenAI no almacenará solicitudes y las direcciones IP quedarán ocultas, dijo la compañía. «Junto con Apple, estamos haciendo que sea más fácil para las personas beneficiarse de lo que la IA puede ofrecer», dijo el CEO de OpenAI, Sam Altman, en un comunicado. Algunas empresas de tecnología, incluida Apple, no anticiparon los avances en IA durante el último año, dijo Rob Enderle, analista principal de la firma de servicios de asesoría Enderle Group. La asociación con OpenAI es una forma de que Apple se ponga al día. Uno de los principales patrocinadores de OpenAI es Microsoft, un competidor de Apple. «Apple se ha quedado muy atrás en materia de IA», afirmó Enderle. «Este es un método para permitir que Apple compense el hecho de que no se han centrado en la IA como deberían haberlo hecho durante la última década». Apple Intelligence fue uno de los muchos anuncios y actualizaciones de Apple el lunes, incluida una función que permite a los usuarios de AirPods Pro asentir con la cabeza o negar con la cabeza a las preguntas de Siri cuando se encuentran en espacios llenos de gente. Además, la compañía anunció que los auriculares Vision Pro también estarán disponibles en otros países a partir de finales de este mes, incluidos China continental, Hong Kong, Japón y Singapur. La compañía también presentó una nueva función llamada InSight para su tvOS18 que es similar a la de Amazon. X-Ray y muestra los nombres de los actores o una canción que se reproduce en un programa de Apple TV+. OpenAI se ha convertido en el actor más conocido en el espacio de la inteligencia artificial gracias a sus herramientas, incluidas ChatGPT y Sora, su herramienta de conversión de texto a video. Pero la compañía ha enfrentado una buena cantidad de controversias y desafíos. El mes pasado, OpenAI recibió una reacción violenta de la actriz Scarlett Johansson, quien dijo que el CEO de la startup se acercó a ella para grabar su voz para una versión de ChatGPT con asistente de voz similar a Siri. Después de rechazar la oportunidad, dijo Johansson, se molestó cuando escuchó lo que sonaba como su voz en una demostración de ChatGPT. Se sabe que Altman es fan de la película de 2013 «Her», en la que Johansson interpreta a «Samantha», la mujer incorpórea. Voz de una computadora que brinda amistad y, finalmente, amor a un hombre solitario interpretado por Joaquin Phoenix. OpenAI dijo que la voz de la IA, llamada «Sky», no era la de Johansson y fue grabada por un actor de doblaje anónimo. No obstante, la empresa suspendió el uso de la voz Sky. OpenAI recientemente recibió críticas por disolver un equipo que tenía la tarea de idear sistemas para evitar que el aumento de la inteligencia artificial condujera a un desastre para la humanidad. Después de la tormenta, OpenAI creó un nuevo comité de seguridad dirigido por miembros de la junta, incluido Altman. La semana pasada, en una carta abierta, los empleados actuales y anteriores de OpenAI también expresaron su preocupación. El grupo dijo que «las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobierno corporativo sean suficientes para cambiar esto». OpenAI dijo en un comunicado que cree que «un debate riguroso es crucial» y que Seguirá colaborando con las comunidades, los gobiernos y la sociedad civil. La compañía dijo que tiene una línea directa anónima y un comité de seguridad. «Estamos orgullosos de nuestro historial proporcionando los sistemas de inteligencia artificial más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo», dijo la compañía. Las grandes empresas de tecnología también enfrentan sus propios desafíos, y el gobierno de EE. UU. ha expresado preocupaciones antimonopolio. En marzo, el Departamento de Justicia demandó a Apple, acusando al gigante tecnológico de sofocar la competencia y de aprovechar su influencia y propiedad de la popular App Store para aumentar los precios para los clientes. Apple dijo que la demanda amenaza «quiénes somos». «Si tiene éxito, obstaculizaría nuestra capacidad de crear el tipo de tecnología que la gente espera de Apple, donde el hardware, el software y los servicios se cruzan», dijo Apple en un comunicado.

La hija de George Carlin critica el especial de comedia generado por IA

Kelly Carlin, la hija del comediante George Carlin, está criticando un especial de comedia generado por IA que imita la voz de su difunto padre. El martes, parecía que el comediante, que murió en 2008 a los 71 años de edad por insuficiencia cardíaca congestiva, estaba opinando sobre temas candentes contemporáneos, incluido el ex presidente Trump y los tiroteos masivos en Estados Unidos. En un especial de comedia de una hora, «George Carlin: I’m Glad I’m Dead», un robot de inteligencia artificial llamado Dudesy usa la voz de Carlin para lo que se describe como una suplantación que intenta capturar el «estilo icónico» del comediante para abordar los temas que trata. Se imagina que Carlin cubriría hoy. “¿Sabes cuánto aman los estadounidenses los reality shows? Nos encanta tanto que elegimos como presidente a un presentador de un reality show de televisión”, dice Dudesy con la voz de Carlin. “Bueno, nosotros no, yo estaba muerto en ese momento. Así que eligió como presidente a un presentador de un reality show de televisión. Y déjenme decirles que nunca me alegré más de estar muerto que el momento en que escuché que Donald Trump era el líder del mundo libre. Pero por increíble que fuera esa noticia, también tenía sentido para mí. Estados Unidos no ha tenido una buena m… desde Nixon”. El programa de inteligencia artificial Dudesy crea un podcast y un programa de YouTube presentado por el alumno de “Mad TV” Will Sasso y Chad Kultgen, productor, novelista y periodista. Kelly Carlin no está impresionada. Recurrió a las redes sociales para criticar la recreación de su padre. «Mi padre pasó toda su vida perfeccionando su oficio a partir de su vida, cerebro e imaginación muy humanos», escribió Kelly Carlin en X, anteriormente Twitter, el miércoles. “Ninguna máquina reemplazará jamás su genio. Estos productos generados por IA son intentos inteligentes de intentar recrear una mente que nunca volverá a existir. Dejemos que el trabajo del artista hable por sí solo. Los humanos tenemos tanto miedo al vacío que no podemos permitir que lo que ha caído en él se quede allí. «Aquí tienes una idea, ¿qué tal si escuchamos a algunos comediantes humanos reales?» ella continuó. “Pero si quieres escuchar al genuino George Carlin, tiene 14 especiales que puedes encontrar en cualquier lugar”. Más tarde agradeció a sus seguidores por su apoyo con respecto al “robot de IA (?) que arrogantemente cruzó una línea en el mundo. de comedia hoy que seguramente afectará a los artistas muertos y sus patrimonios ahora”, antes de criticar a Zelda Williams, la hija de Robin Williams; Melissa Rivers, la hija de Joan Rivers, y la cuenta X de Garry Shandling, administrada por su patrimonio. “Deberíamos hablar”, continuó. «Ellos vendrán por ti a continuación». En mayo pasado, el actor ganador del Oscar Tom Hanks intervino sobre la realidad moderna de que la inteligencia artificial podría hacer que su imagen apareciera en películas mucho después de su muerte. En un episodio de «The Adam Buxton Podcast, Hanks dijo que era una “posibilidad genuina” que la IA asumiera roles para él después de su muerte. “Mañana me puede atropellar un autobús. Y eso es todo, pero mis actuaciones pueden seguir y seguir y seguir y seguir y seguir”, dijo, “y fuera del entendimiento que se ha hecho con la IA o el deepfake, no habrá nada que les diga que no soy yo. y yo solo. Y tendrá cierto grado de calidad realista. Y ese es ciertamente un desafío artístico, pero también legal”. Buxton estuvo de acuerdo en que el potencial era real, pero argumentó que la gente sería capaz de diferenciar entre los Hanks vivos y respirables y los Hanks AI. “Sin duda, la gente lo hará. «Podré decirlo», coincidió Hanks. «Pero la pregunta es: ¿les importará?»

Source link

Los anuncios de Taylor Swift generados por IA están impulsando la estafa de Le Creuset

Los anuncios falsos generados por IA están volviendo a circular en las redes sociales, esta vez utilizando la voz y la imagen de Taylor Swift que promete juegos de utensilios de cocina Le Creuset gratuitos. Como todo Swiftie sabe, el cantante de “Hoax” es fanático de Le Creuset. En el documental de 2020 de la estrella del pop, “Miss Americana”, preparó un poco de salsa para pasta en la olla azul de la marca. Y en 2014, Swift sorprendió a la «superfan» Gena Gabrielle al asistir a su despedida de soltera con varios obsequios, incluidos dos artículos de la línea de utensilios de cocina de lujo. Los estafadores utilizaron tecnología de inteligencia artificial para crear una versión sintética de la voz de la cantante, la neoyorquina. Times informó el martes. El audio se reprodujo sobre varias imágenes de productos de Le Creuset y clips de Swift, algunos extraídos de su entrevista de 2016 con Vogue, “73 preguntas con Taylor Swift”, en la que la ganadora del Grammy ofrece al medio un recorrido por su casa mientras responde rápidamente. preguntas de fuego. En múltiples anuncios de redes sociales, la voz de Swift se manipula para que suene como si estuviera «encantada» de regalar a sus «fans leales» juegos de utensilios de cocina que están disponibles debido a un «error de embalaje». Los fanáticos solo necesitan ofrecer su información personal y pagar una tarifa de envío de $9,96. Un portavoz de Le Creuset dijo a The Times en un comunicado que la marca no está involucrada con Taylor Swift para ningún obsequio al consumidor. «Todos los obsequios o promociones aprobados de Le Creuset provienen de las cuentas sociales oficiales de Le Creuset», dice el comunicado. «Los consumidores siempre deben consultar las cuentas sociales oficiales y el sitio web de Le Creuset antes de hacer clic en cualquier anuncio sospechoso». El representante de Swift no respondió de inmediato a la solicitud de comentarios del Times. Los avances recientes en inteligencia artificial han facilitado la creación de deepfakes y clips de audio convincentes de celebridades. “Estas herramientas se están volviendo muy accesibles hoy en día”, dijo al New York Times Siwei Lyu, profesor de informática que dirige el Laboratorio Forense de Medios de la Universidad de Buffalo. Lyu añadió que podría llevar menos de 45 minutos hacer un “video de calidad decente”. Lyu continuó diciendo que el sorteo falso de Le Creuset probablemente se creó utilizando un servicio de conversión de texto a voz, que puede traducir un guión a una voz generada por IA y luego combinarlo con un vídeo mediante un software de sincronización de labios. En junio pasado, “Yellowstone La estrella y músico country Lainey Wilson vio cómo los estafadores utilizaban su voz y su imagen para vender gomitas para bajar de peso. El creador de éxitos de “Heart Like a Truck” compartió un video en Instagram criticando los anuncios falsos. “A estas alturas, estoy seguro de que muchos de ustedes habrán visto algunos anuncios sobre mí perdiendo peso, siendo hospitalizado y luego comencé a tomar algunas gomitas para bajar de peso y bla, bla, bla, me salvaron la vida. Bueno, sorpresa, no es así. cierto”, dijo. “La gente hará cualquier cosa para ganar un dólar, incluso si son mentiras porque nadie me envió gomitas… Los amo a todos. Simplemente no quiero que gastéis vuestro dinero en algo que no es real, no os dejéis engañar”. Y en septiembre, el actor ganador del Oscar Tom Hanks apareció en anuncios dentales deepfake. La estrella de “Asteroid City” rápidamente los derribó a través de su Instagram, compartiendo una imagen del video de la estafa con la leyenda: “¡Cuidado! Hay un vídeo que promociona un plan dental con una versión mía de IA. No tengo nada que ver con eso.» El año pasado, cuando un fuerte aumento en los anuncios falsos de celebridades comenzó a invadir Internet, USA Today compartió una guía para detectar videos generados por inteligencia artificial que explicaba las señales de alerta a tener en cuenta, incluidas la simetría perfecta, la distorsión, las proporciones inusuales y las texturas poco naturales. También hay herramientas de detección de IA a las que se puede acceder en línea, incluido AI or Not y Maybe’s AI Art Detector.

Source link

Los legisladores de California quieren proteger a los actores para que no sean reemplazados por IA

SACRAMENTO – Mientras los actores y escritores de Hollywood continúan en huelga para exigir mejores salarios y beneficios, los legisladores de California esperan proteger a los trabajadores para que no sean reemplazados por sus clones digitales. El miércoles, el asambleísta Ash Kalra (D-San José) presentó un proyecto de ley que daría a los actores y artistas una forma de anular disposiciones en contratos vagos que permiten a los estudios y otras empresas utilizar inteligencia artificial para clonar digitalmente sus voces, rostros y cuerpos. «Existe una creciente preocupación de que la tecnología se utilice para suplantar sus servicios», afirmó Kalra. “No hay duda de que toda persona tiene derecho a controlar su propia imagen y semejanza, así como su voz”. La inteligencia artificial puede generar imágenes, sonidos o incluso réplicas digitales, lo que alimenta la preocupación de que los estudios cinematográficos utilicen la tecnología para acabar con los empleos del entretenimiento. El uso de lo que se conoce como IA generativa ha sido un punto conflictivo en las negociaciones contractuales entre actores en huelga y estudios cinematográficos. Sindicatos como SAG-AFTRA, que representa a actores, locutores y otros trabajadores del entretenimiento, dicen que se necesitan más salvaguardias para protegerlos de la amenaza de la IA a sus medios de vida, incluso si llegan a un acuerdo favorable. El proyecto de ley, que se presentó el día antes de que concluya el jueves la sesión legislativa de California de 2023, es un adelanto de cómo los legisladores estatales esperan proteger a los trabajadores de los peligros potenciales de la IA. La legislación, el Proyecto de Ley 459 de la Asamblea, no será considerada por los legisladores hasta el próximo año. SAG-AFTRA, que ha estado en los piquetes con el Writers Guild of America, apoya la legislación. Los proyectos de ley para regular la IA, incluida la lucha contra la discriminación algorítmica, no lograron avanzar este año en el Capitolio estatal. Dado que las empresas tecnológicas y los estudios de Hollywood son fundamentales para la economía de California, los políticos también están tratando de equilibrar las preocupaciones de que la regulación gubernamental pueda perjudicar la innovación. El gobernador Gavin Newsom está actuando con cautela sobre el tema y a principios de este mes emitió una orden ejecutiva que ordena a las agencias estatales que examinen los beneficios y riesgos de la IA generativa. Según AB 459, los actores, artistas de voz y otros trabajadores que renunciaron a los derechos sobre su voz o imagen, permitiendo a las empresas hacer clones digitales o usarlos en otras aplicaciones de IA generativa, podrían escapar de esos contratos si no estuvieran representados. por un sindicato o abogado. Las disposiciones contractuales que no definan claramente los usos potenciales de una réplica digital generada por IA se considerarían “desmedidas” según la ley de California, lo que significa que no se pueden hacer cumplir. El proyecto de ley se aplicaría retroactivamente. «La velocidad con la que se han adoptado estas tecnologías significa que el impacto no es algo que pueda suceder algún día en el futuro, pero está sucediendo ahora mismo, a medida que los estudios buscan reemplazar a las personas reales con escaneos digitales», Duncan Crabtree-Ireland, SAG- dijo en un comunicado el director ejecutivo nacional y jefe negociador de AFTRA. Añadió que le complacía ver que la legislación «aborda la transferencia poco ética de la propia imagen y semejanza a través de acuerdos de explotación con artistas intérpretes o ejecutantes». La Alianza de Productores de Cine y Televisión, que representa a los estudios en las negociaciones laborales, afirmó en el pasado que cuando se trata de escritura de guiones, la IA plantea «cuestiones creativas y legales difíciles e importantes para todos». En lo que respecta a la actuación, la AMPTP ha pedido consentimiento informado y remuneración justa en los casos en que los actores sean replicados digitalmente. La Asociación Cinematográfica. y la Asociación de la Industria Discográfica. de América no tuvo una declaración sobre la legislación. La Entertainment Software Assn., que representa a la industria de los videojuegos, no respondió a una solicitud de comentarios. Los estudios de Hollywood ya utilizan tecnología para escanear los cuerpos y rostros de los actores para poder crear réplicas digitales de las escenas. James Earl Jones, quien expresó a Darth Vader en “Star Wars”, se retiró pero, según se informa, permitió a Disney y Lucasfilm usar inteligencia artificial y grabaciones de archivo para recrear su amenazadora e icónica voz. Pero los actores también podrían sentirse presionados a ceder los derechos de su voz o imagen digital o no entender completamente un contrato sin un abogado, dijo Kalra. Los extras de películas a quienes se les han copiado digitalmente los cuerpos también temen que serán reemplazados por sus réplicas digitales. Mientras tanto, las empresas de entretenimiento continúan ampliando sus operaciones de IA. Los escritores también han alegado que algunas empresas de tecnología están utilizando su trabajo para entrenar sistemas de inteligencia artificial sin su consentimiento. En julio, la comediante Sarah Silverman y los novelistas demandaron a la empresa matriz de Facebook, Meta, y a OpenAI, quienes desarrollaron una popular herramienta de inteligencia artificial generativa, ChatGPT, alegando que las empresas de tecnología utilizaron sus libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial. Kalra no fue el único legislador de California que presentó un proyecto de ley sobre IA el miércoles. El senador estatal Scott Wiener (D-San Francisco) dio a conocer un proyecto de ley que responsabilizaría a las empresas de tecnología por no prevenir los riesgos previsibles de seguridad de la IA, además de exigir transparencia y medidas de seguridad para ciertos sistemas de IA. Hora informada anteriormente en el proyecto de ley. «Como sociedad, cometimos un error al permitir que las redes sociales se adoptaran ampliamente sin evaluar primero los riesgos y poner barreras de seguridad», dijo Wiener en un comunicado. «Repetir el mismo error en torno a la IA sería mucho más costoso». A medida que continúan creciendo las preocupaciones sobre la amenaza potencial de la IA a la fuerza laboral creativa, Kalra dijo que los legisladores deben actuar ahora. «Tenemos que adelantarnos a esto y asegurarnos de proteger a quienes luchan por salir adelante, quienes podrían sentirse más obligados a firmar en la línea de puntos», dijo.

Source link

Página 1 de 2

Funciona con WordPress & Tema de Anders Norén