Todo lo que necesitas saber sobre tecnología

Categoría: Ciberseguridad Página 19 de 107

Russian APT28 expande el Arsenal con la Perspectiva ‘Notdoor’ Backdoor

Russian APT28 expande el Arsenal con la Perspectiva ‘Notdoor’ Backdoor

Los investigadores del proveedor de seguridad cibernética española S2 Grupo han observado una nueva puerta trasera de Outlook que permite a los actores de amenaza exfiltrar datos, cargar archivos y ejecutar comandos en la computadora de una víctima. El laboratorio de inteligencia de amenazas de S2 Grupo, LAB52, compartió sus hallazgos en un informe publicado el 3 de septiembre. Los analistas de amenazas denominaron esta puerta trasera ‘Notdoor’ debido al uso de la palabra ‘nada’ dentro del código. Lo han atribuido al grupo de amenazas cibernéticas respaldadas por Rusia APT28. Notdoor: sofisticado malware de Outlook basado en VBA La puerta trasera notaor es un sofisticado Visual Basic para malware basado en aplicaciones (VBA) dirigida a Microsoft Outlook, diseñada para monitorear correos electrónicos entrantes para palabras de activación específicas y ejecutar comandos maliciosos. VBA es el lenguaje de secuencias de comandos integrado de Microsoft utilizado para automatizar tareas en aplicaciones de oficina, como Excel, Word y Outlook. Si bien los usuarios legítimos emplean VBA para la productividad, los actores de amenaza lo explotan para incrustar el código malicioso en las macros, que se ejecutan cuando se abren documentos o correos electrónicos. Notdoor abusa de los desencadenantes VBA impulsados ​​por el evento de Outlook, como Application_MapilOgonComplete (en Startup) y Application_newmailEx (en nuevos correos electrónicos), para activar su carga útil. El código del malware está ofuscado, con nombres de variables aleatorios y una técnica de codificación de cadenas personalizada que agrega caracteres basura a datos Base64, imitando el cifrado al análisis Hinder. Disfrazado de las macros de Outlook legítimas, Notdoor permite a los atacantes exfiltrar datos, cargar archivos y ejecutar comandos arbitrarios en sistemas comprometidos. En particular, el malware aprovecha la carga lateral de DLL a través de un binario de Microsoft firmado (OneDrive.exe), que carga una DLL maliciosa (sspicli.dll) para implementar la puerta trasera mientras evade la detección. La persistencia se logra modificando la configuración del registro de Outlook para deshabilitar las advertencias de seguridad, habilitar las macros en el inicio y suprimir las indicaciones de diálogo, asegurando el funcionamiento silencioso. La puerta trasera establece la comunicación encubierta exfiltrando los datos de las víctimas al correo electrónico controlado por el atacante (a.matti444@proton[.]yo) y verificar la ejecución a través de devoluciones de llamada DNS y HTTP a webhook.site. Tras la infección, crea un directorio oculto (%TEMP%\ temp) para almacenar artefactos, que se envían por correo electrónico automáticamente al atacante y se eliminan. Activado por correos electrónicos que contienen una cadena predefinida (por ejemplo, «informe diario»), notificaciones de notas encriptados integrados en el cuerpo del mensaje, admitiendo múltiples instrucciones por correo electrónico, como robo de archivos, ejecución de comandos o descargas de carga útil adicionales. El diseño modular del malware permite a los atacantes actualizar dinámicamente los desencadenantes y los comandos, lo que hace que la detección y la mitigación sean desafiantes. Al abusar de las capacidades de VBA nativas de Outlook, el malware sigue siendo persistente y sigiloso, por lo que es una herramienta potente para el espionaje o los ataques específicos. Los investigadores de LAB52 recomendaron que las organizaciones desactiven las macros por defecto, monitoreen la actividad de perspectiva inusual e inspeccionen los desencadenantes basados ​​en el correo electrónico para defenderse de tales amenazas. APT28: Un grupo de amenazas en evolución APT28 es un grupo de amenazas cibernéticas conocidas por sus ataques disruptivos. También se conoce bajo muchos nombres, incluyendo Fancy Bear, Fighting Ursa, Forest Blizzard, Pawn Storm, Strontium, Sednit, Sofacy y Tsar Team. Activo desde al menos 2014, APT28 se ha atribuido a la Unidad Militar 26165 del Centro de Servicio Especial Principal del Estado Mayor de Rusia (GTSSS). Dos años más tarde, en 2018, el Departamento de Justicia de los Estados Unidos (DOJ) acusó a cinco oficiales de la Unidad 26165 de GRU por orquestar intrusiones cibernéticas entre 2014 y 2018. Sus objetivos incluyeron la Agencia Mundial Antidopaje (AMA), la agencia antidopia de los Estados Unidos, una instalación nuclear de los Estados Unidos, la organización para la Prohibición de Armas Químicas (OpcWw) y el Spiez Swiss Laboratoration, la Instalación Nuclear, la Organización de la Prohibición de la Prohibición de Armas Químicas (OpcWw) y el Spiez Swiss Laboratoration, la Instalación Nuclear, la Organización de la Prohibición de la Prohibición de las Armas Químicas (OpcWw) y el Spiez Swiss Laboratoration, el Laboratory, el Laboratorio de Laboratorios. Algunas de estas operaciones se llevaron a cabo con el soporte de la Unidad 74455 de GRU, también conocido como el equipo de gusanos de arena. Según los investigadores de LAB52, Notdoor ilustra «la evolución continua de APT28, demostrando cómo genera continuamente nuevos artefactos capaces de evitar mecanismos de defensa establecidos». Más recientemente, APT28 se vinculó a una campaña que ofrece Lamehug, uno de los primeros modelos de idiomas de gran taller (LLM). Inicialmente detectado por el Equipo Nacional de Respuesta a Emergencias de la Computación de Ucrania (CERT-UA) en julio de 2025, los investigadores de Mitre describieron Lamehug como una prueba de prueba «primitiva» para futuros ataques impulsados ​​por la IA. Leer ahora: los investigadores descubren por primera vez que informó el ransomware con AI con IA

Cómo Deepfake «Doctors» vende falsas curas en Tiktok

Cómo Deepfake «Doctors» vende falsas curas en Tiktok

Esté atento a los ‘tikdocs’ generados por IA que explotan la confianza del público en la profesión médica para impulsar las ventas de suplementos incompletos 25 de abril de 2025 •, 3 min. Leer una vez confinado a los laboratorios de investigación, la IA generativa ahora está disponible para cualquier persona, incluidas aquellos con malas intenciones, que usan herramientas de IA para no generar creatividad, sino para alimentar el engaño. Deepfake Technology, que puede crear videos, imágenes y audio notablemente realistas, se está convirtiendo cada vez más en un acompañamiento o esfuerzos de suplantación de celebridades para influir en la opinión pública, sino también para el robo de identidad y todo tipo de estafas. En plataformas de redes sociales como Tiktok e Instagram, el alcance de Deepfakes, junto con su potencial de daño, puede ser especialmente asombroso. Los investigadores de ESET en América Latina recientemente encontraron una campaña sobre Tiktok e Instagram, donde los avatares generados por IA se hicieron pasar por ginecólogos, dietistas y otros profesionales de la salud para promover suplementos y productos de bienestar. Estos videos, a menudo altamente pulidos y persuasivos, disfrazan los argumentos de venta como asesoramiento médico, engañando a los incaides para realizar compras cuestionables y potencialmente directivas. Anatomía de un engaño Cada video sigue un guión similar: un avatar que habla, a menudo escondido en una esquina de la pantalla, ofrece consejos de salud o belleza. Dispensado con un aire de autoridad, el consejo se inclina fuertemente en remedios «naturales», empujando a los espectadores hacia productos específicos para la venta. Al encubrir sus lanzamientos en la apariencia de recomendaciones expertas, estos profundos explotan la confianza en la profesión médica para impulsar las ventas, una táctica que no es ética como efectiva. Figura 1. Ejemplo de un video de Tiktok engañoso en un caso, el «médico» promociona un «extracto natural» como una alternativa superior a Ozempic, la droga celebrada por ayudar a la pérdida de peso. El video promete resultados dramáticos y lo dirige a una página de Amazon, donde el producto se describe como «caídas de relajación» o «ayudas antihenadas», sin conexión con los beneficios publicitarios. Otros videos aumentan aún más las apuestas, empujando drogas no aprobadas o curas falsas para enfermedades graves, a veces incluso secuestrando la imagen de los médicos reales y conocidos. Figura 2. Videos más engañosos ai del «rescate» Los videos se crean con herramientas de IA legítimas que permiten a cualquiera enviar imágenes cortas y transformarlo en un avatar pulido. Si bien esta es una bendición para los influenciadores que buscan escalar su producción, esta misma tecnología se puede cooptar para reclamos y engaño engañosos; en otras palabras, lo que puede funcionar como un truco de marketing se transforma rápidamente en un mecanismo para difundir falsedades. Vimos más de 20 cuentas de Tiktok e Instagram usando médicos de Deepfake para impulsar sus productos. Uno, haciéndose pasar por ginecólogo con 13 años de experiencia en su haber, se rastreó directamente en la biblioteca Avatar de la aplicación. Si bien dicho mal uso viola los términos y condiciones de las herramientas comunes de IA, también destaca la facilidad con que pueden ser armados. Figura 3. Video (izquierda) y avatares (derecha) en última instancia, esto puede no ser «solo» sobre suplementos sin valor. Las consecuencias pueden ser más graves, ya que estos profundos pueden erosionar la confianza en el asesoramiento de salud en línea, promover «remedios» nocivos y retrasar el tratamiento adecuado. Mantener a los médicos falsos a raya a medida que la IA se vuelve más accesible, detectar estas falsificaciones se vuelve más complicado, planteando un desafío más amplio incluso para las personas expertas en tecnología. Dicho esto, aquí hay algunas señales que pueden ayudarlo a detectar videos de FakeFake: movimientos de labios no coincidentes que no se sincronizan con el audio o para las expresiones faciales que se sienten rígidas y no naturales, fallas visuales visuales, como los bordes borrosos o los cambios de iluminación repentina con pocos seguidores, a menudo traicionan la falsificación, una voz robótica o excesiva es otra bandera roja, también, verifique la cuenta en sí misma: New Profils con pocos profesores de seguimiento o no, un poco de seguimiento, una voz robótica o excesiva es otra bandera roja, también, verifique la cuenta en sí misma: New Profiles con los profesores de seguimiento o no traer a la historia, una gran parte, también es una voz en voz alta, también es un historial de seguimiento o no, en la historia de los nuevos. Las afirmaciones hiperbólicas, como «Miracle Cures», «resultados garantizados» y «Los médicos odian este truco», especialmente si carecen de fuentes creíbles, siempre verifican las afirmaciones con recursos médicos confiables, evitan compartir videos sospechosos e informar contenido engañoso a la plataforma. A medida que las herramientas de IA continúen avanzando, distinguir entre contenido auténtico y fabricado será más difícil en lugar de más fácil. Esta amenaza subraya la importancia de desarrollar salvaguardas tecnológicas y mejorar nuestra alfabetización digital colectiva que nos ayudará a protegernos de la información errónea y las estafas que podrían afectar nuestro bienestar financiero y salud.

Cómo los hackers convirtieron a AI en su nuevo secuaz • Graham Cluley

Cómo los hackers convirtieron a AI en su nuevo secuaz • Graham Cluley

Su IA lee la impresión pequeña, y eso es un problema. Esta semana, en el episodio 433 de «Smashing Security», profundizamos en Legalpwn-Instrucciones maliciosas escondidas en los comentarios y renuncias de código que los dulces a la IA en las cargas útiles peligrosas de estampado de caucho (o incluso pretenden que son una calculadora inofensiva). Mientras tanto, la nueva investigación de Anthrope revela que los piratas informáticos ya han utilizado ai gendencias para entrar en redes, robar contraseñas, examinar los datos robados e incluso escribir notas de rescate personalizadas. En otras palabras, un hacker con un ayudante de IA puede funcionar como un equipo completo de cibercriminales. Además: un geek geek alegre en la historia del teclado, y el captcha más molesto y completamente funcional generado por IA que le encantará infligir a sus amigos. Todo esto y mucho más se discute en la última edición del galardonado podcast «Smashing Security» con el veterano de seguridad informática Graham Cluley, unido esta semana por Mark Stockley. ADVERTENCIA: Este podcast puede contener nueces, temas de adultos y lenguaje grosero. Anfitrión: Graham Cluley: @Grahambluley.com @[email protected]Invitado: Mark Stockley: @AI-Fix-Mark.bsky. Enlaces de episodios sociales: Patrocinado por: Vanta-Expanda el alcance de su programa de seguridad con la automatización de cumplimiento líder en el mercado … mientras ahorra tiempo y dinero. ¡Smashing Security Oyentes obtienen $ 1000 de descuento! Apoye el programa: puede ayudar al podcast diciéndole a sus amigos y colegas sobre «Smashing Security» y dejándonos una reseña en Apple Podcasts o Podchaser. ¡Conviértete en partidario de Patreon para episodios sin anuncios y nuestro feed de liberación temprana! Síguenos: Siga el programa en Bluesky, o únase a nosotros en el Smashing Security Subreddit, o visite nuestro sitio web para obtener más episodios. Gracias: Tema del tema: «Vinyl Memories» de Mikael Manvelyan. Efectos de sonido atacados: Audioblocks. ¿Encontró este artículo interesante? Siga a Graham Cluley en LinkedIn, Bluesky o Mastodon para leer más del contenido exclusivo que publicamos.

Los paquetes de NPM maliciosos explotan los contratos inteligentes de Ethereum para apuntar a los desarrolladores de criptografía

Los paquetes de NPM maliciosos explotan los contratos inteligentes de Ethereum para apuntar a los desarrolladores de criptografía

sep 03, 2025Ravie Lakshmananmalware / Ingeniería Social Los investigadores de seguridad cibernética han descubierto dos nuevos paquetes maliciosos en el registro de NPM que utilizan contratos inteligentes para la cadena de bloques de Ethereum para llevar a cabo acciones maliciosas en los sistemas comprometidos. «Los dos paquetes de NPM abusaron de contratos inteligentes para ocultar comandos maliciosos que instalaron malware descargador en sistemas comprometidos», dijo la investigadora de reversinglabs, Lucija Valentić, en un informe compartido con Hacker News. Los paquetes, ambos cargados en NPM en julio de 2025 y ya no están disponibles para descargar, se enumeran a continuación: la firma de seguridad de la cadena de suministro de software dijo que las bibliotecas son parte de una campaña más grande y sofisticada que afecta tanto a NPM como a GitHub, engañando a los desarrolladores inesperados para que descarguen y ejecutenlas. Si bien los paquetes en sí no hacen ningún esfuerzo para ocultar su funcionalidad maliciosa, ReversingLabs señaló que los proyectos de Github que importaron estos paquetes se esforzaron para que parecieran creíbles. En cuanto a los paquetes en sí, el comportamiento nefasto se activa una vez que se usa o se incluye en algún otro proyecto, lo que hace que busque y ejecute una carga útil de la próxima etapa de un servidor controlado por el atacante. Aunque este es el costo para el curso cuando se trata de descargadores de malware, donde se distingue es el uso de contratos inteligentes de Ethereum para organizar las URL que alojan la carga útil, una técnica que recuerda a Etherhiding. El cambio subraya las nuevas tácticas que los actores de amenaza están adoptando para evadir la detección. Una investigación adicional sobre los paquetes ha revelado que se hace referencia en una red de repositorios de GitHub que afirman ser un Solana-Trading-Bot-V2 que aprovecha los «datos en la cadena en tiempo real para ejecutar operaciones automáticamente, ahorrando su tiempo y esfuerzo». La cuenta de GitHub asociada con el repositorio ya no está disponible. Se evalúa que estas cuentas son parte de una oferta de distribución como servicio (DAAS) llamada Stargazers Ghost Network, que se refiere a un grupo de cuentas falsas de Github que se sabe que protagoniza, bifurcan, observa, compromete y se suscribe a repositorios maliciosos para inflar artificialmente su popularidad. Entre los compromisos se encuentran cambios en el código fuente para importar Colortoolsv2. Algunos de los otros repositorios capturados empujando el paquete NPM son Ethereum-Mev-Bot-V2, arbitraje-bots y hiperliquid-trading-bot. El nombramiento de estos repositorios de GitHub sugiere que los desarrolladores y usuarios de criptomonedas son el objetivo principal de la campaña, utilizando una combinación de ingeniería social y engaño. «Es fundamental que los desarrolladores evalúen cada biblioteca que están considerando implementar antes de decidir incluirla en su ciclo de desarrollo», dijo Valentić. «Y eso significa retirar las portadas de los paquetes de código abierto y sus mantenedores: mirar más allá de los números crudos de los mantenedores, los compromisos y las descargas para evaluar si un paquete determinado y los desarrolladores detrás de él son lo que se presentan».

‘Ver es creer que está fuera de la ventana’: qué aprender de la estafa de Al Roker Ai Deepfake

‘Ver es creer que está fuera de la ventana’: qué aprender de la estafa de Al Roker Ai Deepfake

Al Roker nunca tuvo un ataque al corazón. No tiene hipertensión. Pero si viste un video reciente de Deepfake de él que se extendió por Facebook, podría pensar lo contrario. En un segmento reciente sobre NBC’s Today, Roker reveló que un video falso generado por la IA estaba usando su imagen y voz para promover una cura de hipertensión floja, reclamando, falsamente, que había sufrido «un par de ataques cardíacos». «Un amigo mío me envió un enlace y dijo: ‘¿Es esto real?'», Dijo Roker a la corresponsal de investigación Vicky Nguyen. «Y hice clic en él, y de repente, me veo y me escucho hablar de tener un par de ataques cardíacos. ¡No tengo hipertensión!» El clip fabricado se veía y sonaba lo suficientemente convincente como para engañar a amigos y familiares, incluidos algunos de los compañeros de celebridades de Roker. «¡Me parece a mí! Quiero decir, puedo decir que no soy yo, sino para el espectador casual, Al Roker está promocionando esta cura de hipertensión … He llamado a algunos amigos famosos porque sus padres fueron acogidos por él». Si bien Meta rápidamente eliminó el video de Facebook después de ser contactado hoy, el daño se realizó. El incidente destaca una preocupación creciente en la era digital: lo fácil que es crear y creer, convincir los defectos profundos. “Solíamos decir: ‘Ver es creer’. Bueno, eso está fuera de la ventana ahora ”, dijo Roker. Desde Al Roker hasta Taylor Swift: una nueva era de estafas al Roker no es la primera figura pública en ser atacada por las estafas de Deepfake. Taylor Swift apareció recientemente en un video generado por IA que promociona las ventas falsas de horneado. Tom Hanks ha hablado sobre un anuncio de plan dental falso que usó su imagen sin permiso. Oprah, Brad Pitt y otros han enfrentado una explotación similar. Estas estafas no solo confunden a los espectadores, sino que pueden defraudarlos. Los delincuentes usan el lugar de la gente de la confianza en caras familiares para promover productos falsos, atraerlos a inversiones sombrías o robar su información personal. «Es aterrador», dijo Roker a sus co-presentadores Craig Melvin y Dylan Dreyer. Craig agregó: «Lo que da miedo es que si aquí es donde está la tecnología ahora, entonces dentro de cinco años …» Nguyen demostró cuán simple es crear una falsa usando herramientas en línea gratuitas, y trajo al CEO de Brandshield Yoav Keren para subrayar el punto: «Creo que esto se está convirtiendo en uno de los mayores problemas en el mundo en línea», dijo Keren. «No creo que el consumidor promedio entienda … y estás empezando a ver más de estos videos». Por qué funcionan los defectos de profundidad, y por qué son peligrosos según el informe del estado del escamiverso de McAfee, el estadounidense promedio ve 2.6 videos de defake profundos por día, con la Generación Z viendo hasta 3.5 diariamente. Estas estafas están diseñadas para ser creíbles, porque la tecnología hace posible copiar la voz, los gestos y las expresiones de alguien con precisión aterradora. Y no solo afecta a las celebridades: los estafadores han falsificado a los CEO para autorizar transferencias fraudulentas de alambre. Han hecho pasar por familiares en crisis para robar dinero. Han realizado entrevistas de trabajo falsas para cosechar datos personales. Cómo protegerse de las estafas de Deepfake mientras que la tecnología detrás de Deepfakes avanza, todavía hay formas de detectar y detenerse: Ejemplo: Observe expresiones faciales extrañas, movimientos rígidos o labios fuera de sincronización con el habla. Escuche el audio robótico, las pausas faltantes o el ritmo antinatural. Busque iluminación que parezca inconsistente o mal representada. Verifique las afirmaciones impactantes a través de fuentes de confianza, especialmente si involucran dinero o asesoramiento de salud. Y lo más importante, sea escéptico de los avales de celebridades en las redes sociales. Si parece fuera de lugar o demasiado bueno para ser verdad, probablemente lo sea. Cómo las herramientas de IA de McAfee pueden ayudar al detector Deepfake de McAfee, impulsado por la Unidad de Procesamiento Neural de AMD (NPU) en los nuevos procesadores de la serie Ryzen ™ AI 300, identifica el audio y el video manipulados en tiempo real, dando a los usuarios una ventaja crítica en detectar falsificaciones. Esta tecnología se ejecuta localmente en su dispositivo para una detección privada más rápida y tranquilidad. La experiencia de Al Roker muestra cuán personales y persuasivas se han vuelto las estafas profundas. Desduzan la línea entre la verdad y la ficción, apuntando a su confianza en las personas que admira. Con McAfee, puedes defenderte. Presentación de protección y privacidad de robo de identidad McAfee+ para su vida digital. Descargue McAfee+ ahora \ x3cimg Height = «1» Width = «1» Style = «Display: None» src = «https://www.facebook.com/tr?id=766537420057144&ev=pageview&noScript=1″/> \ x3c/noscript> ‘);

Innovator Spotlight: Dune Security – Fuente: www.cyberdefensemagazine.com

Innovator Spotlight: Dune Security – Fuente: www.cyberdefensemagazine.com

La amenaza silenciosa: reinventar la seguridad de los usuarios en la era de los profesionales de ciberseguridad de IA ha luchado durante mucho tiempo en un enemigo invisible: la vulnerabilidad humana. La capacitación tradicional de conciencia de seguridad se ha convertido en una danza predecible de clics obligatorios, aprendizaje pasivo y retención mínima. Pero, ¿qué pasaría si hubiera un enfoque revolucionario que pudiera transformar cómo las organizaciones protegen su activo más impredecible: su gente? Ingrese a Dune Security, una startup que desafía los paradigmas fundamentales de la capacitación de ciberseguridad. David de la Pell, cofundador y CEO de Dune Security, comprende el problema central íntimamente. «El 90% de las infracciones todavía se originan con algún tipo de comportamiento del usuario, amenaza interna, ingeniería social, compromiso de correo electrónico comercial», explica. Esta estadística marcada no es solo un número: es una llamada de clarón para un enfoque radicalmente diferente. La IA generativa del panorama de amenazas cambiantes ha acelerado drásticamente la sofisticación de los ataques cibernéticos. Los actores de amenaza ahora pueden crear falsificaciones profundas hiperrealistas, generar correos electrónicos de phishing convincentes y lanzar ataques multicanal con precisión sin precedentes. De La Pell destaca los riesgos emergentes: «Estamos viendo una tasa de éxito tres veces mayor para phishing de lanza generado por IA y ataques multicanal en correo electrónico, mensajes de texto e incluso canales encriptados como señal y telegrama». Capacitación de seguridad tradicional: un modelo roto que la mayoría de las organizaciones se basan en programas estandarizados de seguridad de la seguridad. Los empleados hacen clic de mala gana a través de módulos genéricos, a menudo a doble velocidad, conservando poca información significativa. «El entrenamiento de concientización sobre seguridad heredado está muerta», afirma De La Pell. El modelo actual crea una relación adversa entre los equipos de seguridad y los empleados, perdiendo el tiempo para el personal de bajo riesgo sin poder proteger adecuadamente al personal de alto riesgo. La plataforma innovadora de un enfoque de riesgo personalizado Dune Security funciona como un «puntaje de crédito para el riesgo del usuario», evaluando dinámicamente la potencial vulnerabilidad de cada empleado en función de su papel, niveles de acceso y patrones de comportamiento. La innovación clave de la plataforma es la prueba y la capacitación adaptables al usuario. Los empleados de alto riesgo reciben simulaciones específicas y específicas de roles, mientras que los empleados de bajo riesgo experimentan una fricción mínima. El objetivo no es solo la conciencia: es la reducción del riesgo orgánico. Simulación del mundo real: más allá de los límites tradicionales, la solución de equipo rojo de la compañía ahora se extiende a canales encriptados como Telegram y WhatsApp, reconociendo que los atacantes modernos constantemente buscan nuevos métodos de infiltración. «A veces no importa cuán altos sean las paredes del castillo cuando los atacantes encuentran constantemente nuevas formas», explica De La Pell. Esta filosofía impulsa el modelado continuo de amenazas de Dune. La innovación tecnológica cumple con el comportamiento humano al aprovechar los modelos de IA avanzados, Dune puede crear falsificaciones profundas hiperrealistas de ejecutivos, simular intentos de phishing sofisticados y proporcionar experiencias de capacitación personalizadas y matizadas. Su plataforma integra datos de múltiples fuentes (sistemas EDR, plataformas de identidad, registros de correo electrónico y bases de datos de recursos humanos) para crear un perfil de riesgo integral para cada usuario. El futuro de la capacitación de ciberseguridad para CISO ahogando en los requisitos de cumplimiento y luchando con el compromiso, Dune ofrece una alternativa convincente. La plataforma promete: reducir los recursos generales del tiempo de capacitación en los usuarios de alto riesgo que mejoran la percepción de los empleados de los equipos de seguridad proporcionan información de riesgo granular y procesable un llamado a la acción para los líderes de seguridad si está listo para ir más allá del cumplimiento de la casilla de verificación y crear una cultura de seguridad genuinamente adaptativa, es hora de repensar la gestión de riesgos de los usuarios. La seguridad de Dune invita a los CISO con visión de futuro a explorar un nuevo paradigma, donde la capacitación de seguridad se convierte en una experiencia dinámica y personalizada que realmente protege a su organización. Obtenga más información en https://www.dune.security/ Nota del autor: Esta entrevista exclusiva se realizó en vivo en la Conferencia de Hat Black Hat 2025 en Las Vegas, ofreciendo una mirada sin precedentes al futuro de la capacitación de usuarios de ciberseguridad. Acerca del autor Pete Green es el CISO / CTO de Anvil Works, una compañía de procloud SaaS. Con más de 25 años de experiencia en tecnología de la información y ciberseguridad, Pete es un profesional de seguridad experimentado y realizado. A lo largo de su carrera, ha desempeñado una amplia gama de roles técnicos y de liderazgo, incluidos el ingeniero de LAN/WLAN, analista de amenazas, gerente de proyectos de seguridad, arquitecto de seguridad, arquitecto de seguridad en la nube, consultor principal de seguridad, director de TI, CTO, CEO, Virtual CISO y CISO. Pete ha apoyado a clientes en numerosas industrias, incluido el gobierno federal, estatal y local, así como servicios financieros, atención médica, servicios de alimentos, fabricación, tecnología, transporte y hospitalidad. Tiene una maestría en sistemas de información informática en seguridad de la información de la Universidad de Boston, que es reconocido como un centro nacional de excelencia académica en garantía de información / defensa cibernética (CAE IA / CD) por la NSA y el DHS. También posee un maestro de administración de empresas en informática. URL de publicación original: https://www.cyberdefensemagazine.com/innovator-spotlight-dune-security/category & tags: spotlight, plataforma de capacitación adaptativa, seguridad de IA, amenazas de seguridad de la seguridad de correo electrónico, alto de seguridad, sese de seguridad, alto de seguridad, alivio de seguridad de seguridad, Phishing, gestión de riesgos de usuarios, calificación del riesgo de usuario: atención, plataforma de capacitación adaptativa, seguridad de inteligencia artificial, sombrero negro 2025, compromiso de correo electrónico comercial, David de la Pell, ataques falsos profundos, seguridad de dunas, amenazas generativas de IA, amenazas de información privilegiada, capacitación personalizada de seguridad, simulaciones de equipo rojo, innovación de sensibilización de seguridad, phishing de spear, gestión de riesgos de usuarios, riesgo de usuarios de usuarios.

Cómo AI y la inteligencia aumentada remodelarán las finanzas globales

Cómo AI y la inteligencia aumentada remodelarán las finanzas globales

La inteligencia artificial (IA) y la inteligencia aumentada se están convirtiendo en impulsores cruciales que transforman el futuro de las finanzas globales en el mundo que se está volviendo cada vez más basada en datos, compleja y la que se deben tomar algunas decisiones en tiempo real. Mientras que la IA está dedicada a la automatización de procesos y reconocimiento de patrones, la inteligencia aumentada es colaborativa y permite que los tomadores de decisiones humanos estén equipados con herramientas y conocimientos inteligentes. En combinación, no solo están mejorando la eficiencia de las operaciones, sino que definen la estructura, la confiabilidad y el borde competitivo de los servicios financieros en un nivel absoluto. Con el mundo avanzando hacia una era de una economía digital más integrada, una convergencia de aprendizaje automático, big data, informática cognitiva y PNL están causando que la transformación no sea simplemente técnica, sino estratégica y cultural. Desde la automatización hasta el aumento: un cambio de paradigma las instituciones financieras han prestado atención tradicionalmente a la automatización como un medio para mejorar las funciones de velocidad y rentabilidad. Pero la IA hoy en día es mucho más que el conjunto de reglas predefinidas. Es capaz de interpretar un contexto sutil y se enseña constantemente en función de la nueva información y anticipar las consecuencias con una precisión más compleja. Más importante aún, la inteligencia aumentada es una indicación de un cambio de paradigma dentro de la industria: el reemplazo del humano con aumento. Los sistemas humanos en el bucle se están volviendo críticos en áreas de alto riesgo, como préstamos éticos de dinero, asesoramiento de inversiones avanzadas y relaciones con los clientes. En cambio, estos modelos (considerados un compromiso entre la intuición cognitiva y humana) se dirigen a realizar un seguimiento de la demanda de transparencia, toque emocional y planificación anticipada. Revolucionar la gestión de riesgos y la detección de fraude la IA está reinventando la columna vertebral de la gestión de riesgos de estabilidad financiera, ya que ofrece la capacidad de operar rápido y en escala. La detección de anomalías permite una intervención rápida porque los sistemas de IA podrían analizar millones de transacciones e identificar una gama mucho más amplia de inconsistencias que el ojo humano podría. También hay una puntuación crediticia y perfiles de riesgo que se cambian con IA. En lugar de usar solo las métricas clásicas del rendimiento financiero, los modelos basados ​​en IA están incorporando fuentes de datos no convencionales para crear perfiles de interés más integrales, dinámicos y predictivos, particularmente a los mercados desatendidos. Insight del mundo real: un jugador líder global de fintech global ha aprovechado la detección de fraude impulsada por la IA para reducir significativamente los falsos positivos, mostrando cómo el aprendizaje automático puede mejorar tanto la seguridad como la experiencia del cliente. Hiperpersonalización: elevar la experiencia del cliente a medida que evolucionan las expectativas del consumidor, la personalización se ha convertido en un diferenciador clave en los servicios financieros. Con la IA, la hiperpersonalización es posible porque los comportamientos individuales, las transacciones y las preferencias son continuamente procesadas por el sistema, lo que hace que estas interacciones sean predictivas y relevantes. Los bancos están reinventando sus vidas digitales utilizando AI para ver de manera proactiva lo que las personas quieren, proporcionar soluciones de dinero personalizadas y, a veces, incluso traer a las personas hacia un comportamiento financiero más saludable. Este cambio al servicio como compromiso proactivo es parte del mayor cambio: salir de las transacciones a las relaciones. Información del mundo real: los asistentes virtuales desarrollados por las principales instituciones financieras ilustran cómo la IA conversacional puede convertirse en compañeros financieros confiables, lo que aumenta la participación y la retención del cliente. Comercio algorítmico e inteligencia de mercado La velocidad y la complejidad en los mercados internacionales requieren herramientas, lo que puede procesar cualquier información más rápido que cualquier equipo de seres humanos. Tanto el comercio de alta frecuencia como los enfoques a largo plazo ahora incluyen algoritmos basados ​​en IA. Dichos sistemas procesan una variedad de diferentes flujos de datos, métricas económicas, sentimiento, eventos geopolíticos en tiempo real que se utilizarán en la toma de decisiones. Sin embargo, la verdadera frontera radica en entornos comerciales aumentados. Aquí, las ideas generadas por IA apoyan en lugar de reemplazar la experiencia humana, lo que capacita a los analistas y comerciantes para navegar por la incertidumbre con mejor claridad y control. Información del mundo real: las plataformas avanzadas desarrolladas por las principales empresas de inversión demuestran cómo la IA puede elevar la toma de decisiones, particularmente en entornos de mercado que cambian rápidamente. Los imperativos éticos, regulatorios y de gobernanza a medida que AI se vuelve fundamental para las finanzas, también lo hacen sus riesgos. Existen desafíos relacionados con el sesgo en los algoritmos, la falta de explicación de los modelos y el mayor nivel de amenazas cibernéticas. Este no es solo un problema técnico, estas son preocupaciones de confianza. Las instituciones financieras deben centrarse en la IA responsable, que apunta éticamente al uso de datos, siendo transparentes al respecto, responsables y bajo control humano constante. Los regímenes de gobernanza, como la Ley de AI de la UE, así como las nuevas normas globales, están definiendo las reglas del juego en términos de cumplimiento e innovación creíble. El imperativo ético es claro: la IA financiera debe diseñarse no solo para maximizar la eficiencia sino también para defender la justicia, la seguridad y la inclusión. Inteligencia aumentada: el futuro es colaborativo, las organizaciones financieras más con visión de futuro están replanteando la IA no como un reemplazo para los tomadores de decisiones humanos, sino como socio. Los modelos de inteligencia aumentados abarcan las fortalezas de los humanos y las máquinas, el reconocimiento de patrones y el poder de procesamiento, por un lado, razonamiento estratégico y empatía por el otro. Esta coevolución es evidente en todas las funciones: suscripción, atención al cliente, cumplimiento, asesoramiento y más. Cuando los profesionales financieros están equipados con herramientas acomodadas por AI, toman decisiones más rápidas, más inteligentes y más personalizadas; Mientras conserva el toque humano que genera confianza. Pensamientos finales: Liderar a través de la IA de innovación y la inteligencia aumentada no son algo del futuro, sino las realidades actuales que están reformando la esfera de las finanzas en un nivel fundamental. Las instituciones líderes serán las que no dejarán proyectos piloto y, en su lugar, integrarán estas tecnologías dentro de sus cadenas de valor. Esto tomará más que inversión técnica. Requiere que una empresa sea más culturalmente ágil, cruzada, tenga líderes morales y una cultura obsesiva del valor del cliente. Las finanzas se caracterizan no solo como un servicio, sino como un ecosistema inteligente y adaptativo, que es inclusivo. El futuro solo está en manos de aquellos que no tendrán miedo de pensar en la IA como un medio y no como un fin, un socio inteligente en el desarrollo.

Paquetes NPM maliciosos Explotación de Ethereum Smart Contracts

Paquetes NPM maliciosos Explotación de Ethereum Smart Contracts

Se ha descubierto una campaña maliciosa dirigida a los desarrolladores a través de los repositorios de NPM y GitHub, con un método inusual para usar contratos inteligentes de Ethereum para ocultar la infraestructura de comando y control (C2). La campaña salió a la luz por primera vez a principios de julio cuando el investigador de reversiones Karlo Zanki descubrió un paquete llamado «Colortoolsv2» en NPM. El paquete se eliminó rápidamente, pero los atacantes intentaron continuar la operación publicando un paquete duplicado, «Mimelib2». Ambos paquetes implementaron una carga útil de malware en la segunda etapa a través de la infraestructura de blockchain. Lo nuevo en esta campaña, mientras que los descargadores de NPM maliciosos aparecen regularmente, estos generalmente contienen URL o scripts integrados en el paquete en sí. En contraste, Colortoolsv2 y Mimelib2 aprovecharon los contratos inteligentes de Ethereum para almacenar y entregar las URL utilizadas para obtener el malware de la segunda etapa. Esta táctica hizo que la detección fuera significativamente más difícil, ya que la infraestructura maliciosa estaba oculta dentro del código blockchain en lugar de dentro de los archivos de paquete. «Los descargadores son […] Publicado semanalmente, [but] Este uso de contratos inteligentes para cargar comandos maliciosos es algo que no hemos visto anteriormente «, dijeron los investigadores de RL.» Destaca la rápida evolución de las estrategias de evasión de detección de actores maliciosos que están trolleando repositorios y desarrolladores de código abierto «. Lea más sobre el abuso de contrato inteligente en la seguridad cibernética: el ataque de la cadena de suministro utiliza contratos inteligentes para los repositorios de C2 Ops Github disfrazados de las herramientas comerciales ReversingLabs también descubrió que los paquetes de NPM estaban vinculados a una campaña más amplia en una campaña más amplia entre los Repositorios falsos, sin embargo, se presentan a los Repositorios Falsos. Fabricado. reveló la red de cuentas falsas que lo respaldan. Tanto los repositorios de código abierto y la tecnología de blockchain.

¿Qué tan segura y segura es realmente su iPhone?

Su iPhone no es necesariamente tan invulnerable a las amenazas de seguridad como puede pensar. Estos son los peligros clave a tener en cuenta y cómo endurecer su dispositivo contra los malos actores. 28 de abril de 2025 •, 6 min. Leer posibilidades de que muchas personas piensen: «Es un iPhone, así que estoy a salvo». El control de Apple sobre su dispositivo y ecosistema de aplicaciones ha sido históricamente ajustado, con su enfoque de jardín amurallado que brinda menos oportunidades para que los piratas informáticos encuentren puntos débiles. También hay varias características de seguridad incorporadas, como cifrado fuerte y contenedores, esta última, lo que ayuda a evitar la fuga de datos y limita la propagación de malware. Y los inicios de sesión basados ​​en Passkey y varias configuraciones de privacidad por defecto también ayudan. El hecho de que las aplicaciones de iOS generalmente se obtienen de la Apple App Store oficial y deben aprobar pruebas estrictas para ser aprobadas para la lista, han ahorrado a muchos usuarios de iPhone algunos dolores de cabeza de seguridad y privacidad a lo largo de los años. Por otro lado, no elimina los riesgos por completo, con todo tipo de estafas cotidianas y otras amenazas que bombardean no solo a Android, sino también en cierta medida los usuarios de iOS. Mientras que algunos son más comunes que otros, todos exigen atención. Mientras tanto, la reciente ley de monopolio de la UE conocida como la Ley de Mercados Digitales (DMA) tiene como objetivo garantizar un campo de juego nivelado al ofrecer a los usuarios de iOS la opción de usar mercados de aplicaciones de terceros. El movimiento histórico introduce nuevos desafíos para Apple cuando se trata de proteger a los usuarios de iOS por daños y también puede tener implicaciones para muchos usuarios, ya que deberán ser más conscientes de las amenazas de seguridad que acechan. Hay muchas razones para creer que los malos actores intentarán cooptar el movimiento para fines nefastos. Para cumplir con el DMA, Apple debe permitir: los desarrolladores ofrecen aplicaciones de iOS a los usuarios a través de mercados de tiendas que no son app. Esto podría aumentar las posibilidades de que los usuarios descarguen aplicaciones maliciosas. Incluso las aplicaciones legítimas pueden no actualizarse con tanta frecuencia como las de la tienda de aplicaciones oficiales. Motores de navegador de terceros, que pueden ofrecer nuevas oportunidades para atacar que el motor WebKit de Apple no (verificar). Los fabricantes de dispositivos de terceros y desarrolladores de aplicaciones para acceder a diversas características de conectividad iOS, como la conectividad Wi-Fi de igual a igual y el emparejamiento de dispositivos. El gigante tecnológico argumenta que esto significa que puede verse obligado a enviar datos de usuario confidenciales, incluidas notificaciones que contienen mensajes personales, detalles de red Wi-Fi o códigos únicos, a estos desarrolladores. Teóricamente podrían usar la información para rastrear a los usuarios, advierte. Donde más las amenazas de iOS están al acecho, mientras que lo anterior puede «solo» impactar a los ciudadanos de la UE, también hay otras preocupaciones y posiblemente más inmediatas para los usuarios de iOS en todo el mundo. Estos incluyen: dispositivos con jailbreak Si desbloquee deliberadamente su dispositivo para permitir lo que Apple llama «modificaciones no autorizadas», podría violar su acuerdo de licencia de software y podría deshabilitar algunas características de seguridad incorporadas como incluir la prevención de ejecución de arranque y datos seguros. También significará que su dispositivo ya no recibe actualizaciones automáticas. Y al poder descargar aplicaciones desde más allá de la App Store, estará expuesto al software malicioso y/o erróneo. Aplicaciones maliciosas Si bien Apple hace un buen trabajo al examinar las aplicaciones, no lo hace bien el 100% del tiempo. Las aplicaciones maliciosas detectadas en la App Store incluyen recientemente: Descargas de aplicaciones basadas en el sitio web que también debe tener cuidado con la descarga de aplicaciones iOS directamente desde sitios web con navegadores compatibles. Como se detalla en el último informe de amenazas de ESET, Progressive Web Apps (PWAS) permite la instalación directa sin exigir a los usuarios que otorguen permisos explícitos, lo que significa que las descargas podrían volar bajo el radar. ESET descubrió esta técnica utilizada para disfrazar el malware bancario como aplicaciones legítimas de banca móvil. Los ataques de phishing de phishing/ingeniería social por correo electrónico, texto (o iMessage) e incluso la voz son un hecho común. Se hacen pasar por marcas legítimas y te engañan para que entreguen credenciales o haga clic en enlaces maliciosos/apertura de accesorios para activar descargas de malware. Los ID de Apple se encuentran entre los inicios de sesión más preciados, ya que pueden proporcionar acceso a todos los datos almacenados en su cuenta de iCloud y/o habilitar los atacantes realizar compras de iTunes/App Store. Esté atento: las ventanas emergentes falsas que afirman que su dispositivo tiene un problema de seguridad de llamadas telefónicas de estafa y llamadas de Facetime que se esfuerza por el soporte de Apple o las organizaciones asociadas promociones falsas que ofrecen regalos y sorteos de premio El calendario invita a spam que contiene un sitio web de estafadores de enlaces de phishing que solicita a un usuario para suscribir eventos de calendario en iOS (para obtener más detalles, ver esta investigación de ESET) en una campaña de una amenaza de una amenaza a los que usan los actitudes de la ingeniería de la ingeniería de la ingeniería a los que usan los equipos de la ingeniería de la ingeniería de la ingeniería de la ingeniería. Perfil de gestión (MDM), dándoles control sobre los dispositivos de las víctimas. Con esto, implementaron malware GoldPickaxe diseñado para cosechar datos biométricos faciales y usarlos para evitar los inicios de sesión bancarios. Riesgos de Wi-Fi público Si conecta su iPhone a un punto de acceso Wi-Fi público, tenga cuidado. Puede ser un punto de acceso relacionado falso creado por los actores de amenaza diseñados para monitorear el tráfico web y robar información confidencial que ingrese como contraseñas bancarias. Incluso si el punto de acceso es legítimo, muchos no cifre datos en tránsito, lo que significa que los piratas informáticos con las herramientas correctas podrían ver los sitios web que visita y las credenciales que ingrese. Aquí es donde una VPN es útil, creando un túnel encriptado entre su dispositivo e Internet. Tome la lista de verificación de seguridad de iOS de Eset para aprender cuán seguro es su iPhone. Explotación de vulnerabilidad Aunque Apple dedica mucho tiempo y esfuerzo para garantizar que su código esté libre de vulnerabilidades, los errores a veces pueden pasar a la producción. Cuando lo hacen, los piratas informáticos pueden atacar si los usuarios no han actualizado su dispositivo a tiempo, por ejemplo, enviando enlaces maliciosos en mensajes que activan un exploit si se hace clic. El año pasado, Apple se vio obligado a parchar una vulnerabilidad que podría permitir a los actores de amenaza robar información de un dispositivo bloqueado a través de los comandos de voz de Siri, a veces, los actores de amenaza y las compañías comerciales investigan nuevas vulnerabilidades (cero) vulnerabilidades para explotar. Aunque raro y altamente dirigido, los ataques que aprovechan estos a menudo se usan para instalar encubierte el spyware para espiar los dispositivos de víctimas que se mantienen a salvo de las amenazas de iOS, esto podría parecer que hay malware que acechan en cada esquina para los usuarios de iOS. Eso podría ser cierto, hasta cierto punto, pero también hay muchas cosas para minimizar su exposición a las amenazas. Estas son algunas de las principales tácticas: mantenga actualizados sus iOS y todas las aplicaciones. Esto reducirá la ventana de oportunidad para que los actores de amenazas exploten cualquier vulnerabilidad en versiones antiguas para lograr sus objetivos. Siempre use contraseñas fuertes y únicas para todas las cuentas, tal vez utilizando el Administrador de contraseñas de ESET para iOS, y encienda la autenticación multifactor si se ofrece. Esto es fácil en los iPhones, ya que requerirá una exploración de identificación facial simple. Esto asegurará que, incluso si los malos obtienen sus contraseñas, no podrán acceder a sus aplicaciones sin su cara. Habilite Face ID o Touch ID para acceder a su dispositivo, respaldado con un alto código de acceso. Esto mantendrá el iPhone seguro en caso de pérdida o robo. No encadene su dispositivo, por las razones enumeradas anteriormente. Lo más probable es que su iPhone sea menos seguro. Ser consciente de phishing. Eso significa tratar llamadas, mensajes de texto, correos electrónicos y mensajes de redes sociales no solicitados con extrema precaución. No haga clic en enlaces o abra archivos adjuntos. Si realmente necesita hacerlo, consulte con el remitente por separado que el mensaje es legítimo (es decir, no respondiendo a los detalles enumerados en el mensaje). Busque signos reveladores de ingeniería social que incluyan: errores gramaticales y de ortografía urgencia para actuar ofertas especiales, obsequios y dominios de remitente de ofertas demasiado buenas para llevar que no coincidan con el supuesto remitente evitar el Wi-Fi público. Si tiene que usarlo, intente hacerlo con una VPN. Como mínimo, no inicie sesión en ninguna cuenta valiosa ni ingrese información confidencial mientras esté en Wi-Fi público. Intente seguir con la App Store para cualquier descarga, para minimizar el riesgo de descargar algo malicioso o arriesgado. Si cree que puede ser un objetivo del spyware (a menudo utilizado por gobiernos y regímenes opresivos en periodistas, activistas y disidentes), habilite el modo de bloqueo. Esté atento a los signos reveladores de la infección por malware, que podrían incluir: las ventanas emergentes de anuncios no deseados de rendimiento lento que sobrecalentan el dispositivo/aplicaciones frecuentes se bloquean las nuevas aplicaciones que aparecen en la pantalla de inicio, el uso de datos del iPhone de Apple sigue entre los dispositivos más seguros. Pero no son una bala de plata para todas las amenazas. Mantente alerta. Y mantente a salvo.

Ataques de inyección indirecta contra asistentes de LLM

Ataques de inyección indirecta contra asistentes de LLM realmente buenas investigaciones sobre ataques prácticos contra los agentes de LLM. «La invitación es todo lo que necesita! Los ataques de suministro contra asistentes a motor de LLM en la producción son prácticos y peligrosos» Resumen: la creciente integración de LLM en aplicaciones ha introducido nuevos riesgos de seguridad, especialmente conocidos como aviso, indicadores de ingeniería meditivos diseñados para manipular las LLM para comprometer la triaidad de la CIA de estas aplicaciones. Si bien la investigación previa advirtió sobre un cambio potencial en el panorama de amenazas para aplicaciones con alimentación de LLM, el riesgo planteado por la avisura se percibe con frecuencia como bajo. En este documento, investigamos las posturas de aviso de riesgo a los usuarios de asistentes con Gemini (aplicación web, aplicación móvil y asistente de Google). Proponemos un nuevo marco de análisis de amenazas y evaluación de riesgos (TARA) para evaluar los riesgos de aviso para los usuarios finales. Nuestro análisis se centra en una nueva variante de la información previa llamada ataques de información específica, que aprovechan la inyección indirecta de inmediato a través de interacciones comunes del usuario, como correos electrónicos, invitaciones de calendario y documentos compartidos. Demostramos 14 escenarios de ataque aplicados contra asistentes con Géminis en cinco clases de amenazas identificadas: envenenamiento con contexto a corto plazo, envenenamiento por memoria permanente, mal uso de herramientas, invocación automática de agentes e invocación automática de aplicaciones. Estos ataques destacan las consecuencias digitales y físicas, incluyendo spam, phishing, campañas de desinformación, exfiltración de datos, transmisión de video de usuario no aprobada y control de los dispositivos de automatización del hogar. Revelamos el potencial de aviso para el movimiento lateral en el dispositivo, escapando de los límites de la aplicación con alimentación de LLM, para activar acciones maliciosas utilizando las aplicaciones de un dispositivo. Nuestra Tara revela que el 73% de las amenazas analizadas plantean un alto riesgo crítico para los usuarios finales. Discutimos las mitigaciones y reevaluamos el riesgo (en respuesta a las mitigaciones desplegadas) y mostramos que el riesgo podría reducirse significativamente a muy bajo medio. Revelamos nuestros hallazgos a Google, que implementó mitigaciones dedicadas. Defcon Talk. Artículos de noticias sobre la investigación. La inyección rápida no es solo un problema de seguridad menor con el que debemos tratar. Es una propiedad fundamental de la tecnología LLM actual. Los sistemas no tienen la capacidad de separar los comandos de confianza de los datos no confiables, y hay un número infinito de ataques de inyección inmediata sin forma de bloquearlos como clase. Necesitamos una nueva ciencia fundamental de LLM antes de poder resolver esto. Etiquetas: Documentos académicos, IA, CyberAttack, LLM, Modelos de amenaza publicados el 3 de septiembre de 2025 a las 7:00 am • 5 comentarios

Página 19 de 107

Funciona con WordPress & Tema de Anders Norén