Esté atento a los ‘tikdocs’ generados por IA que explotan la confianza del público en la profesión médica para impulsar las ventas de suplementos incompletos 25 de abril de 2025 •, 3 min. Leer una vez confinado a los laboratorios de investigación, la IA generativa ahora está disponible para cualquier persona, incluidas aquellos con malas intenciones, que usan herramientas de IA para no generar creatividad, sino para alimentar el engaño. Deepfake Technology, que puede crear videos, imágenes y audio notablemente realistas, se está convirtiendo cada vez más en un acompañamiento o esfuerzos de suplantación de celebridades para influir en la opinión pública, sino también para el robo de identidad y todo tipo de estafas. En plataformas de redes sociales como Tiktok e Instagram, el alcance de Deepfakes, junto con su potencial de daño, puede ser especialmente asombroso. Los investigadores de ESET en América Latina recientemente encontraron una campaña sobre Tiktok e Instagram, donde los avatares generados por IA se hicieron pasar por ginecólogos, dietistas y otros profesionales de la salud para promover suplementos y productos de bienestar. Estos videos, a menudo altamente pulidos y persuasivos, disfrazan los argumentos de venta como asesoramiento médico, engañando a los incaides para realizar compras cuestionables y potencialmente directivas. Anatomía de un engaño Cada video sigue un guión similar: un avatar que habla, a menudo escondido en una esquina de la pantalla, ofrece consejos de salud o belleza. Dispensado con un aire de autoridad, el consejo se inclina fuertemente en remedios «naturales», empujando a los espectadores hacia productos específicos para la venta. Al encubrir sus lanzamientos en la apariencia de recomendaciones expertas, estos profundos explotan la confianza en la profesión médica para impulsar las ventas, una táctica que no es ética como efectiva. Figura 1. Ejemplo de un video de Tiktok engañoso en un caso, el «médico» promociona un «extracto natural» como una alternativa superior a Ozempic, la droga celebrada por ayudar a la pérdida de peso. El video promete resultados dramáticos y lo dirige a una página de Amazon, donde el producto se describe como «caídas de relajación» o «ayudas antihenadas», sin conexión con los beneficios publicitarios. Otros videos aumentan aún más las apuestas, empujando drogas no aprobadas o curas falsas para enfermedades graves, a veces incluso secuestrando la imagen de los médicos reales y conocidos. Figura 2. Videos más engañosos ai del «rescate» Los videos se crean con herramientas de IA legítimas que permiten a cualquiera enviar imágenes cortas y transformarlo en un avatar pulido. Si bien esta es una bendición para los influenciadores que buscan escalar su producción, esta misma tecnología se puede cooptar para reclamos y engaño engañosos; en otras palabras, lo que puede funcionar como un truco de marketing se transforma rápidamente en un mecanismo para difundir falsedades. Vimos más de 20 cuentas de Tiktok e Instagram usando médicos de Deepfake para impulsar sus productos. Uno, haciéndose pasar por ginecólogo con 13 años de experiencia en su haber, se rastreó directamente en la biblioteca Avatar de la aplicación. Si bien dicho mal uso viola los términos y condiciones de las herramientas comunes de IA, también destaca la facilidad con que pueden ser armados. Figura 3. Video (izquierda) y avatares (derecha) en última instancia, esto puede no ser «solo» sobre suplementos sin valor. Las consecuencias pueden ser más graves, ya que estos profundos pueden erosionar la confianza en el asesoramiento de salud en línea, promover «remedios» nocivos y retrasar el tratamiento adecuado. Mantener a los médicos falsos a raya a medida que la IA se vuelve más accesible, detectar estas falsificaciones se vuelve más complicado, planteando un desafío más amplio incluso para las personas expertas en tecnología. Dicho esto, aquí hay algunas señales que pueden ayudarlo a detectar videos de FakeFake: movimientos de labios no coincidentes que no se sincronizan con el audio o para las expresiones faciales que se sienten rígidas y no naturales, fallas visuales visuales, como los bordes borrosos o los cambios de iluminación repentina con pocos seguidores, a menudo traicionan la falsificación, una voz robótica o excesiva es otra bandera roja, también, verifique la cuenta en sí misma: New Profils con pocos profesores de seguimiento o no, un poco de seguimiento, una voz robótica o excesiva es otra bandera roja, también, verifique la cuenta en sí misma: New Profiles con los profesores de seguimiento o no traer a la historia, una gran parte, también es una voz en voz alta, también es un historial de seguimiento o no, en la historia de los nuevos. Las afirmaciones hiperbólicas, como «Miracle Cures», «resultados garantizados» y «Los médicos odian este truco», especialmente si carecen de fuentes creíbles, siempre verifican las afirmaciones con recursos médicos confiables, evitan compartir videos sospechosos e informar contenido engañoso a la plataforma. A medida que las herramientas de IA continúen avanzando, distinguir entre contenido auténtico y fabricado será más difícil en lugar de más fácil. Esta amenaza subraya la importancia de desarrollar salvaguardas tecnológicas y mejorar nuestra alfabetización digital colectiva que nos ayudará a protegernos de la información errónea y las estafas que podrían afectar nuestro bienestar financiero y salud.
Deja una respuesta