Si alguien lo llamara afirmando ser un funcionario del gobierno, ¿sabrá si su voz era real? Esta pregunta se volvió terriblemente relevante esta semana cuando un cibercriminal usó ingeniería social y IA para hacerse pasar por el secretario de Estado Marco Rubio, engañando a funcionarios de alto nivel con mensajes de voz falsos que sonaban exactamente como él. Plantea una preocupación crítica: ¿podrían otros líderes mundiales notar la diferencia, o también se enamorarían de ella? El incidente de Rubio: una llamada de atención en junio de 2025, un atacante desconocido creó una cuenta de señal falsa utilizando el nombre de la pantalla «marco.rubio@state.gov» y comenzó a contactar a los funcionarios del gobierno con mensajes de voz generados por IA que imitaban perfectamente el estilo de voz y escritura del Secretario de Estado. El impostor alcanzó con éxito al menos cinco objetivos de alto perfil, incluidos tres ministros de extranjeros, un gobernador estadounidense y un miembro del Congreso. El ataque no se trataba solo de bromas o publicidad. Las autoridades estadounidenses creen que el culpable estaba «intentando manipular a los poderosos funcionarios gubernamentales con el objetivo de obtener acceso a información o cuentas». Esto representa un sofisticado ataque de ingeniería social que podría tener serias implicaciones de seguridad nacionales e internacionales. Por qué las estafas de voz están explotando el incidente de Rubio no está aislado. En mayo, alguien violó el teléfono del jefe de gabinete de la Casa Blanca, Susie Wiles, y comenzó a realizar llamadas y mensajes a senadores, gobernadores y ejecutivos de negocios mientras pretendía ser artimañas. Estos ataques se están volviendo más comunes porque: la clonación de voz de IA ahora es accesible para todos: lo que una vez requerido, los recursos a nivel de Hollywood ahora se pueden hacer con herramientas en línea gratuitas en las redes sociales que proporcionan muestras de voz: solo unos segundos de la voz de alguien de un video o podcast es suficiente gente de las personas que confían en las voces familiares familiares, mientras que no estamos psicológicamente con las voces de la red. El caso de Rubio involucró a funcionarios gubernamentales, estas mismas técnicas se están utilizando contra los estadounidenses cotidianos. Un estudio reciente de McAfee encontró que el 59% de los estadounidenses dicen que ellos o alguien que conocen han caído para una estafa en línea en los últimos 12 meses, y las víctimas de estafas perdieron un promedio de $ 1,471. En 2024, nuestra investigación reveló que 1 de cada 3 personas creen que han experimentado algún tipo de estafa de voz de IA, algunos de los más devastadores son «estafas de abuelos» donde los delincuentes clonan la voz de un nieto para engañar a parientes mayores para enviar dinero para emergencias falsas. Las víctimas de la estafa de Deepfake han reportado pérdidas que van desde $ 250 a más de medio millón de dólares. Escenarios de estafas de voz de IA comunes: llamadas de emergencia familiar: «Abuela, estoy en la cárcel y necesito fianza» Fraude del CEO: ejecutivos falsos que les piden a los empleados que transfieran estafas de inversión monetaria: las celebridades que parecen respaldar los esquemas ricos ricos en las estafas románticas: ¿Construyendo relaciones falsas usando voces robadas de misión a misión a misión que se atraviesan una gran razón por la que los detalles se explican? Las herramientas son baratas, poderosas e increíblemente fáciles de usar. McAfee Labs probó 17 generadores Deepfake y descubrieron que muchos están disponibles en línea de forma gratuita o con pruebas de bajo costo. Algunos se comercializan como «entretenimiento», hechos para llamadas de bromas o con voces de celebridades en aplicaciones como WhatsApp. Pero otros están claramente construidos con estafas en mente, ofreciendo suplantaciones realistas con solo unos pocos clics. No hace mucho, crear un defake convincente tomó días de expertos o incluso semanas. ¿Ahora? Puede costar menos de un café con leche y tomar menos tiempo que se necesita para beber uno. Las interfaces simples de arrastrar y soltar significan cualquier persona, incluso con cero habilidades técnicas, puede clonar voces o caras. Aún más preocupante: las bibliotecas de código abierto proporcionan tutoriales gratuitos y modelos previamente capacitados, ayudando a los estafadores a saltar las partes duras por completo. Si bien algunas de las herramientas más avanzadas requieren una computadora potente y una tarjeta gráfica, una configuración decente cuesta menos de $ 1,000, una pequeña etiqueta de precio cuando considera la recompensa. A nivel mundial, el 87% de las víctimas de estafas pierden dinero, y 1 de cada 5 pierde más de $ 1,000. Solo un puñado de estafas exitosas pueden pagar fácilmente el equipo de un estafador y algo más. En una prueba de McAfee, por solo $ 5 y 10 minutos de tiempo de configuración, creamos un avatar en tiempo real que nos hizo ver y sonar como Tom Cruise. Sí, es tan fácil, y tan peligroso. Figura 1. Demostrando la creación de una lucha de defake profunda altamente convincente: cómo funciona el detector de defake de McAfee reconociendo la urgente necesidad de protección, McAfee desarrolló un detector de defake profundo para combatir las estafas con AI. El detector DeepFake de McAfee representa una de las herramientas de consumo más avanzadas disponibles en la actualidad. Características clave que lo protegen a la detección casi instantánea: McAfee Deepfake Detector utiliza IA avanzada para alertarlo en cuestión de segundos si un video tiene audio generado por IA, lo que le ayuda a identificar rápidamente el contenido real versus falso en su navegador. Diseño de privacidad primero: todo el proceso de identificación ocurre directamente en su PC, maximizando el procesamiento en el dispositivo para mantener los datos privados del usuario fuera de la nube. McAfee no recopila ni registra el audio de un usuario de ninguna manera. Tecnología avanzada de IA: los modelos de detección de IA McAfee aprovechan los modelos de redes neuronales profundas (DNN) basadas en el transformador con una tasa de precisión del 96%. Integración perfecta: Deepfake Detector se detecta a los profundos para usted en su navegador, sin ningún clic adicional. Cómo habría ayudado en el caso de Rubio, mientras que el detector Deepfake de McAfee está construido para identificar el audio manipulado dentro de los videos, apunta al tipo de tecnología que se está volviendo esencial en situaciones como esta. Si el intento de suplantación hubiera tomado la forma de un mensaje de video publicado o compartido en línea, DeepFake Detector podría haber: analizado el audio del video en cuestión de segundos Los signos marcados de los signos de contenido de voz generado por IA alertaron al espectador de que el mensaje podría ser sintético a prevenir la confusión o daño al provocar el escrutinio adicional. Engaño impulsado por AI. Si bien la versión orientada al consumidor de nuestra tecnología actualmente no escanea contenido solo de audio, como llamadas telefónicas o mensajes de voz, el caso Rubio muestra por qué las herramientas de detección de IA como la nuestra son más críticas que nunca, especialmente a medida que las amenazas evolucionan en video, audio y más allá, y por qué es crucial para que la industria de la seguridad cibernética continúe evolucionando a la velocidad de la IA. Cómo protegerse: Pasos prácticos Mientras que la tecnología como el detector Deepfake de McAfee proporciona una protección poderosa, también debe: ser escéptico de la confianza de las «solicitudes urgentes» y verificar la identidad a través de canales alternativos. Haga preguntas que solo la persona real lo sabrá, utilizando frases secretas o que sean las palabras seguras de las solicitudes de dinero o la información sensible se detenga. Nadie es inmune a las estafas de voz de IA. También demuestra por qué la tecnología de detección proactiva se está volviendo esencial. El conocimiento es poder, y esto nunca ha sido más cierto que en el mundo de hoy. La carrera entre las estafas con IA y la protección con AI se intensifica. Al mantenerse informado, usar herramientas de detección avanzadas y mantener un escepticismo saludable, podemos mantenernos un paso por delante de los ciberdelincuentes que intentan robar literalmente nuestras voces y nuestra confianza. \ x3cimg height = «1» width = «1» style = «Display: None» src = «https://www.facebook.com/tr?id=766537420057144&ev=pageview&noScript=1″/> \ x3c/noscript> ‘);