La FTC está tomando medidas para hacer que no sólo sea ilegal la suplantación fraudulenta de personas gubernamentales y empresariales mediante IA, sino que también está preguntando al público estadounidense si también desea cierta protección. El organismo de control del consumidor de EE. UU. lo anunció el jueves, junto con la introducción de una regla final que le dará a la Comisión la capacidad de presentar demandas federales directamente contra estafadores de suplantación de identidad de IA que apuntan a empresas y agencias gubernamentales. Los cambios también permitirán que la agencia apunte más rápidamente a los creadores del código utilizado en tales estafas. Sin embargo, la propuesta inicial no cubre la suplantación de identidad de particulares. Entonces la FTC está publicando esto [PDF] aviso complementario solicitando comentarios públicos sobre si también deberían estar cubiertos por las nuevas reglas. «Los estafadores están utilizando herramientas de inteligencia artificial para hacerse pasar por personas con una precisión inquietante y a una escala mucho más amplia», afirmó la presidenta de la FTC, Lina Khan. «Con el aumento de la clonación de voz y otras estafas impulsadas por la IA, proteger a los estadounidenses del fraude de imitadores es más crítico que nunca». Más allá de simplemente declarar ilegal hacerse pasar por otra persona para cometer fraude, la propuesta también incluye una disposición para responsabilizar a las empresas por el uso indebido de la tecnología que crean. La disposición denominada «medios e instrumentalidades» de la propuesta daría a la FTC la capacidad de responsabilizar a las empresas que crean tecnología de inteligencia artificial que podría usarse para hacerse pasar por personas si «tuvieran motivos para saber que los bienes y servicios que proporcionaron serán utilizado con fines de suplantación de identidad», dijo la FTC. A pesar de una disposición para responsabilizar a los desarrolladores por el uso indebido de su tecnología, no está claro quiénes, ni en qué medida, las organizaciones podrían ser procesadas. Según la propuesta, es ilegal que un estafador llame o envíe mensajes a una persona haciéndose pasar por otro individuo, envíe correo físico tergiversando su afiliación, cree un sitio web, un perfil de redes sociales o una dirección de correo electrónico haciéndose pasar por una persona o coloque anuncios que se hagan pasar por una persona o sus afiliados. No está claro si las organizaciones que transmiten mensajes fraudulentos podrían ser consideradas responsables junto con las empresas que facilitan la creación de voces y vídeos de IA. Le hemos pedido una aclaración a la FTC, pero no hemos recibido respuesta. La FCC tomó sus propias medidas para combatir la suplantación de IA a principios de este mes y decidió que era ilegal usar voces generadas por IA en llamadas automáticas. A diferencia de esta norma recientemente propuesta por la FTC, la FCC simplemente aclaró que las leyes existentes de protección al consumidor telefónico cubrían el uso de voces generadas por IA. ®

Source link