En los días previos a las elecciones primarias del Partido Demócrata de Estados Unidos en New Hampshire el 23 de enero, los votantes potenciales comenzaron a recibir una llamada con audio generado por IA de un falso presidente Biden instándolos a no votar hasta las elecciones generales de noviembre. El audio de los votantes de Eslovaquia publicado en Facebook contenía un audio falso, generado por IA, de un candidato presidencial que planeaba robar las elecciones, lo que podría haber inclinado las elecciones a favor de otro candidato. Las recientes elecciones en Indonesia y Taiwán también se han visto empañadas por la desinformación generada por la IA. En respuesta a la llamada automática falsa de Biden en New Hampshire, la Comisión Federal de Comunicaciones de EE. UU. tomó medidas para ilegalizar las voces generadas por IA en las llamadas automáticas el 8 de febrero. Pero los expertos con los que habló IEEE Spectrum no están convencidos de que la medida sea suficiente, incluso cuando la IA generativa aporta nuevos giros a las antiguas estafas de llamadas automáticas y ofrece oportunidades para impulsar los esfuerzos para defraudar a las personas. Se cree que la pérdida total por estafas y spam en Estados Unidos en 2022 será de 39.500 millones de dólares, según TrueCaller, que fabrica una aplicación de identificación de llamadas y bloqueo de spam. Ese mismo año, la cantidad promedio de dinero perdida por personas estafadas en Estados Unidos fue de 431,26 dólares, según una encuesta de Hiya, una empresa que brinda servicios de identidad y protección de llamadas. Hiya dice que esa cantidad aumentará a medida que el uso de la IA generativa gane terreno. «En conjunto, es alucinante cuánto se pierde por el fraude perpetuado a través de llamadas automáticas», dice Eric Burger, director de investigación de Commonwealth Cyber ​​Initiative en Virginia. Tecnología. «No creo que podamos apreciar cuán rápido va a cambiar la experiencia telefónica debido a esto». —Jonathan Nelson, HiyaAI facilitará que los estafadores se dirijan a individuos “El gran temor con la IA generativa es que se adopten estafas personalizadas y se generalicen”, dice Jonathan Nelson, director de gestión de productos de Hiya. En particular, afirma, la IA generativa facilitará la realización de ataques de phishing. El costo del fraude telefónico La cantidad promedio de dinero perdida por una víctima de estafa telefónica en 2022, en dólares estadounidenses: Estados Unidos: $431,26 Reino Unido: $324,04 Canadá: $472,87 Francia: $360,62 Alemania: $325,87 España: $282,35 Fuente: Hiya Generalmente, los ataques de phishing tienen como objetivo para engañar a las personas para que proporcionen información personal, como contraseñas e información financiera. El Spearphishing, sin embargo, es más específico: el estafador sabe exactamente a quién se dirige y espera obtener un pago mayor a través de un enfoque más personalizado. Ahora, con la IA generativa, dice Nelson, un estafador puede raspar sitios de redes sociales, redactar textos e incluso clonar una voz confiable para separar en masa a personas desprevenidas de su dinero. Con el voto unánime de la FCC para ilegalizar la IA generativa en las llamadas automáticas, la cuestión naturalmente pasa a ser la aplicación de la ley. Aquí es donde los expertos con los que habló IEEE Spectrum tienen dudas en general, aunque muchos también lo ven como un primer paso necesario. «Es un paso útil», dice Daniel Weiner, director del Programa de Gobierno y Elecciones del Centro Brennan, «pero no es una solución completa». Weiner dice que es difícil para la FCC adoptar un enfoque regulatorio más amplio en la misma línea que la prohibición general de los deepfakes que está considerando la Unión Europea, dado el alcance de la autoridad de la FCC. Burger, quien fue director de tecnología de la FCC de 2017 a 2019, dice que, en última instancia, el voto de la agencia solo tendrá un impacto si comienza a hacer cumplir la prohibición de las llamadas automáticas de manera más general. La mayoría de los tipos de llamadas automáticas han estado prohibidos desde que la agencia instituyó la Ley de Protección al Consumidor Telefónico en 1991. (Hay algunas excepciones, como mensajes pregrabados del consultorio de su dentista, por ejemplo, que le recuerdan una cita próxima). No parece estar sucediendo”, dice Burger. «A los políticos les gusta decir ‘vamos tras los malos’, y no lo hacen, no con el vigor que nos gustaría ver». Las herramientas de aplicación de llamadas automáticas pueden no ser suficientes contra la IA El método clave para identificar el origen de una llamada automática (y, por lo tanto, evitar que los malos actores sigan realizándola) es rastrear la llamada a través de la compleja red de infraestructura de telecomunicaciones e identificar el punto de origen de la llamada. . Los rastreos solían ser asuntos complicados, ya que una llamada generalmente atraviesa la infraestructura mantenida por múltiples operadores de red como AT&T y T-Mobile. Sin embargo, en 2020, la FCC aprobó un mandato para que los operadores de red comenzaran a implementar un protocolo llamado STIR/SHAKEN que, entre otras medidas anti-robocalls, haría posible el rastreo en un solo paso. «Se ha confirmado el rastreo en un solo paso», afirma Burger. Traceback, por ejemplo, identificó la fuente de las llamadas falsas de Biden dirigidas a los votantes de New Hampshire como una empresa con sede en Texas llamada Life Corporation. El problema, dice Burger, es que la FCC, la Oficina Federal de Investigaciones de EE. UU. y las agencias estatales no están proporcionando los recursos para hacer posible perseguir la gran cantidad de operaciones ilegales de llamadas automáticas. Históricamente, la FCC sólo ha perseguido a los mayores perpetradores. «No hay forma de detener estas llamadas», dice Nelson de Hiya, al menos no del todo. «Nuestro trabajo no es detenerlos, sino hacer que no sean rentables». Hiya, al igual que empresas similares, pretende lograr ese objetivo reduciendo la cantidad de fraude exitoso a través de servicios de protección, incluida la exposición de dónde se creó una llamada y quién, para que sea menos probable que un individuo responda la llamada en primer lugar. Sin embargo, a Nelson le preocupa que la IA generativa haga que la barrera de entrada sea tan baja que esas acciones preventivas sean menos efectivas. Por ejemplo, las estafas actuales casi siempre requieren transferir a la víctima a un agente en vivo en un centro de llamadas para cerrar la estafa con éxito. Con voces generadas por IA, los estafadores pueden eventualmente eliminar por completo el centro de llamadas. «En conjunto, es alucinante cuánto se pierde por el fraude perpetuado mediante llamadas automáticas». —Eric Burger, Virginia Tech A Nelson también le preocupa que a medida que la IA generativa mejore, será más difícil para las personas siquiera reconocer que no estaban hablando con una persona real en primer lugar. «Ahí es donde vamos a empezar a perder el equilibrio», dice Nelson. «Es posible que tengamos un aumento en el número de destinatarios de llamadas que no se dan cuenta de que se trata de una estafa». Los estafadores que se posicionan como organizaciones benéficas falsas, por ejemplo, podrían solicitar “donaciones” con éxito sin que los donantes se den cuenta de lo que realmente sucedió. «No creo que podamos apreciar cuán rápido va a cambiar la experiencia telefónica debido a esto», dice Nelson. Otro tema que complica la aplicación de la ley es que la mayoría de las llamadas automáticas ilegales en Estados Unidos se originan más allá de las fronteras del país. El Industry Traceback Group descubrió que en 2021, por ejemplo, el 65 por ciento de todas esas llamadas fueron de origen internacional. Burger señala que la FCC ha tomado medidas para combatir las llamadas automáticas internacionales. La agencia hizo posible que otros operadores se negaran a transmitir tráfico de proveedores de puerta de enlace (un término para los operadores de red que conectan infraestructura nacional con infraestructura internacional) que están originando llamadas fraudulentas. En diciembre de 2023, por ejemplo, la FCC ordenó a dos empresas, Solid Double y CallWin, que dejaran de transmitir llamadas automáticas ilegales o se arriesgarían a que otros operadores tuvieran que rechazar su tráfico. “No parece que se esté haciendo cumplir la ley. No con el vigor que nos gustaría ver”. —Eric Burger, Virginia Tech La reciente acción de la FCC contra la IA generativa en las llamadas automáticas es la primera de su tipo, y aún está por verse si los organismos reguladores de otros países seguirán el ejemplo. «Ciertamente creo que la FCC está dando un buen ejemplo de acción rápida y audaz en el ámbito de su autoridad regulatoria», dice Weiner. Sin embargo, también señala que las contrapartes de la FCC en otras democracias probablemente terminarán con resultados más completos. Según Burger, es difícil decir cómo se compararán las acciones de la FCC con las de otros reguladores. Tan a menudo como la FCC está muy por delante de la curva, como en el uso compartido del espectro, con la misma frecuencia está muy por detrás, como en el uso de 5G de banda media. Nelson dice que espera ver revisiones de la decisión de la FCC dentro de un par de años, porque actualmente impide que las empresas utilicen IA generativa para prácticas comerciales legítimas. También queda por ver si el voto de la FCC tendrá algún efecto real. Burger señala que, en el caso de llamadas como la falsa de Biden, debido a que ya era ilegal realizar esas llamadas automáticas y hacerse pasar por el presidente, hacer que otro aspecto de la llamada sea ilegal probablemente no cambie las reglas del juego. “Al hacerlo triplemente ilegal, ¿eso realmente disuadirá a la gente?” Dice hamburguesa. Artículos de su sitioArtículos relacionados en la Web

Source link