El fiscal general de New Hampshire anunció el martes una investigación criminal sobre una empresa con sede en Texas que supuestamente estaba detrás de miles de llamadas generadas por IA haciéndose pasar por el presidente Biden en el período previo a las elecciones primarias del estado. El fiscal general John Formella (R) dijo en un comunicado conferencia que su oficina también había enviado a la compañía de telecomunicaciones Life Corp. una carta de cese y desistimiento ordenándole que dejara inmediatamente de violar las leyes estatales contra la supresión de votantes en las elecciones. Un grupo de trabajo multiestatal también se está preparando para un posible litigio civil contra el La compañía y la Comisión Federal de Comunicaciones ordenaron a Lingo Telecom que dejara de permitir el tráfico ilegal de llamadas automáticas, después de que un consorcio industrial identificara a esa compañía con sede en Texas como la fuente de origen de las llamadas. Formella dijo que las acciones tenían como objetivo notificar a New Hampshire y otros estados. tomarán medidas si utilizan la IA para interferir en las elecciones. “No lo intentes”, dijo. “Si lo hace, trabajaremos juntos para investigar, trabajaremos con socios de todo el país para encontrarlo y tomaremos todas las medidas coercitivas que la ley nos permita. Las consecuencias de sus acciones serán graves”. New Hampshire está emitiendo citaciones a Life Corp., Lingo Telecom y otros individuos y entidades que pueden haber estado involucrados en las llamadas, dijo Formella. Life Corp., su propietario Walter Monk y Lingo Telecom. no respondió de inmediato a las solicitudes de comentarios. El anuncio presagia un nuevo desafío para los reguladores estatales, a medida que las herramientas de inteligencia artificial cada vez más avanzadas crean nuevas oportunidades para inmiscuirse en las elecciones en todo el mundo mediante la creación de grabaciones de audio, fotografías e incluso videos falsos de los candidatos, enturbiando las aguas. de la realidad. Las llamadas automáticas fueron una prueba temprana de un mosaico de autoridades estatales y federales, que dependen en gran medida de las leyes electorales y de protección al consumidor promulgadas antes de que las herramientas de inteligencia artificial generativa estuvieran ampliamente disponibles para el público. La investigación criminal se anunció más de dos semanas después Surgieron informes de las llamadas, lo que subraya el desafío para las autoridades estatales y federales de actuar rápidamente en respuesta a una posible interferencia electoral. «Cuando hay tanto en juego, no tenemos horas ni semanas», dijo Hany Farid, profesor de la Universidad de California en Berkeley que estudia la propaganda digital y la desinformación. “La realidad es que el daño ya estará hecho”. A finales de enero, entre 5.000 y 20.000 personas recibieron llamadas telefónicas generadas por IA haciéndose pasar por Biden y les dijeron que no votaran en las primarias del estado. La llamada decía a los votantes: «Es importante que guarden su voto para las elecciones de noviembre». Todavía no estaba claro cuántas personas podrían no haber votado basándose en estas llamadas, dijo Formella. Un día después de que surgieran las llamadas, la oficina de Formella anunció que investigarían el asunto. «Estos mensajes parecen ser un intento ilegal de perturbar las elecciones primarias presidenciales de New Hampshire y reprimir a los votantes de New Hampshire», dijo en un comunicado. «Los votantes de New Hampshire deberían ignorar por completo el contenido de este mensaje». A pesar de la acción, Formella no proporcionó información sobre qué software de la compañía se utilizó para crear la llamada automática de Biden generada por IA. Farid dijo que la grabación de sonido probablemente fue creada por el software de La empresa de clonación de voz de IA ElevenLabs, según un análisis que hizo con investigadores de la Universidad de Florida. ElevenLabs, que recientemente fue valorada en 1.100 millones de dólares y recaudó 80 millones de dólares en una ronda de financiación codirigida por la firma de capital de riesgo Andreessen Horowitz, permite que cualquiera registrarse para obtener una herramienta paga que les permite clonar una voz a partir de una muestra de voz preexistente. Los expertos en inteligencia artificial han criticado a ElevenLabs por no tener suficientes barreras de seguridad para garantizar que no sea utilizada como arma por estafadores que buscan estafar a votantes, personas mayores y otros. La compañía suspendió la cuenta que creó la robocall profunda de Biden, según muestran informes de noticias. “Estamos dedicados a prevenir el uso indebido de herramientas de inteligencia artificial de audio y nos tomamos muy en serio cualquier incidente de uso indebido”, dijo el director ejecutivo de ElevenLabs, Mati Staniszewski. «Si bien no podemos comentar sobre incidentes específicos, tomaremos las medidas adecuadas cuando se informen o detecten casos y contaremos con mecanismos para ayudar a las autoridades o partes relevantes a tomar medidas para abordarlos». El incidente de la llamada automática es también uno de varios episodios que subrayan la necesidad de mejores políticas dentro de las empresas de tecnología para garantizar que sus servicios de inteligencia artificial no se utilicen para distorsionar las elecciones, dijeron expertos en inteligencia artificial. A fines de enero, el creador de ChatGPT, OpenAI, prohibió a un desarrollador usar sus herramientas después de que el desarrollador construyera un bot que imitaba las posibilidades presidenciales demócratas. candidato Dean Phillips. La campaña de Phillips había apoyado el bot, pero después de que The Washington Post informara al respecto, OpenAI consideró que había violado las reglas contra el uso de su tecnología para campañas. Los expertos dijeron que las empresas de tecnología tienen herramientas para regular el contenido generado por IA, como marcas de agua en el audio para crear una huella digital o barreras de seguridad que no permiten a las personas clonar voces para decir ciertas cosas. Las empresas también pueden unirse a una coalición destinada a prevenir la difusión de información engañosa en línea mediante el desarrollo de estándares técnicos que establezcan los orígenes del contenido de los medios, dijeron los expertos. Pero Farid dijo que es poco probable que muchas empresas de tecnología implementen salvaguardas en el corto plazo, independientemente de las amenazas de sus herramientas. a la democracia. “Tenemos 20 años de historia para explicarnos que las empresas tecnológicas no quieren barreras de seguridad para sus tecnologías”, dijo. «Es malo para los negocios».

Source link