Todo lo que necesitas saber sobre tecnología

Categoría: Ciberseguridad Página 22 de 108

Libro de trabajo de capacitación de criptoanálisis de 1965 publicado por la NSA

1965 Libro de trabajo de capacitación de criptoanálisis publicado por la NSA a principios de la década de 1960, la agencia de seguridad nacional Cryptanalyst y el instructor de criptoanálisis Lambros D. Callimahos acuñó el término «estetoscopio» para describir un programa de diagnóstico informático utilizado para desentrañar la estructura interna de los cifre pre-computadores. El término aparece en el recién desclasificado del documento de septiembre de 1965, diagnóstico criptoanalítico con la ayuda de una computadora, que compiló 147 listados de esta herramienta para el curso de Callimahos, CA-400: programa de estudio intensivo de la NSA en criptanálisis general. Los listados en el informe son impresiones del programa de estetoscopio, ejecutados en la computadora Bogart de la NSA, que muestran datos estadísticos y estructurales extraídos de mensajes cifrados, pero los mensajes cifrados en sí mismos no están incluidos. Se usaron en programas de capacitación de la NSA para enseñar a los analistas cómo interpretar el comportamiento de texto cifrado sin ver el mensaje original. Los listados incluyen elementos como tablas de frecuencia, índice de coincidencia, pruebas de periodicidad, análisis BigRam/Trigram y pistas columnas y de transposición. La idea es darle al analista algunas pistas sobre qué lenguaje se está codificando, qué tipo de sistema de cifrado se usa y las formas potenciales de reconstruir el texto sin formato dentro de él. Bogart era una computadora electrónica de uso especial diseñada específicamente para tareas criptoanalíticas, como el análisis estadístico de textos de cifrado, reconocimiento de patrones y pruebas de diagnóstico, pero no descifrado per se. Listados como estos fueron revolucionarios. Antes de las computadoras, los criptanalistas hicieron este tipo de trabajo manualmente, contando minuciosamente letras y probando hipótesis. Stethoscope automatizó el trabajo gruñido, permitiendo a los analistas centrarse en la interpretación y la estrategia criptoanalítica. Estos listados fueron parte del programa de estudio intensivo en criptoanálisis general en NSA. Los estudiantes fueron entrenados para interpretar listados sin ver el texto cifrado original, un método que agudizó sus habilidades intuitivas analíticas. También se menciona en el informe Rob Roy, otra herramienta de diagnóstico de la NSA centrada en diferentes tareas criptoanalíticas, pero también produce recuentos de frecuencia, índices de coincidencia y pruebas de periodicidad. La NSA tenía la tradición de dar herramientas de rota de código nombres coloridos, por ejemplo, Duenna, SuperScritcher, Madame X, Harvest y Copperhead. Etiquetas: criptoanálisis, Historia de la criptografía, NSA publicado el 2 de septiembre de 2025 a las 7:08 am • 2 comentarios

Operai y antrópico se prueban entre sí, y todos fallan en la prueba Apocalypse • Graham Cluley

Operai y antrópico se prueban entre sí, y todos fallan en la prueba Apocalypse • Graham Cluley

En el episodio 66 de AI Fix, ChatGPT le da a Mark y Graham una terrible lección de anatomía, Boffins en Stanford Ruin Sushi, Google Gemini tiene una crisis autocomplaciente, Deepseek obtiene una «F» en la detención de amenazas existenciales para la humanidad, un robot no da a luz y un equipo de agentes de AI atropellan nuestros anfitriones con un ascenso médico increíble. Además, Graham explica por qué el inminente apocalipsis de IA lo hace sentir inusualmente optimista, y Mark analiza cómo una colaboración altamente inusual podría hacernos a todos más seguros. Todo esto y mucho más se discute en la última edición del podcast «The AI ​​Fix» de Graham Cluley y Mark Stockley. Anfitriones: Graham Cluley: @Grahambluley.com @[email protected]Mark Stockley: @Ai-Fix-mark.bsky. Enlaces de episodios sociales: Apoye el programa: Puede ayudar al podcast diciéndole a sus amigos y colegas sobre «The AI ​​Fix», y dejándonos una reseña sobre Apple Podcasts o Podchaser. Si desea admitir aún más el podcast y obtener acceso a episodios sin anuncios, ¡conviértase en un seguidor uniéndose a la fijación AI Plus! Síguenos: Siga el programa en Bluesky, o suscríbase de forma gratuita en su aplicación de podcasts favorita, como Apple Podcasts o Spotify, o visite nuestro sitio web para obtener más información. ¿Encontró este artículo interesante? Siga a Graham Cluley en LinkedIn, Bluesky o Mastodon para leer más del contenido exclusivo que publicamos.

Una parte crítica del gobierno empresarial de IA

Una parte crítica del gobierno empresarial de IA

Sep 02, 2025  La privacidad de los Datos del Hacker Privacy / SaaS Security Las duras verdades de AI Adoption MITS State of AI en el informe comercial revelaron que, si bien el 40% de las organizaciones han comprado suscripciones de Enterprise LLM, más del 90% de los empleados usan activamente herramientas de IA en su trabajo diario. Del mismo modo, la investigación de la seguridad armónica encontró que el 45.4% de las interacciones de IA sensibles provienen de cuentas de correo electrónico personales, donde los empleados están evitando por completo los controles corporativos. Esto, comprensiblemente, ha llevado a muchas preocupaciones en torno a una creciente «economía de IA de sombra». Pero, ¿qué significa eso y cómo pueden los equipos de gobernanza de seguridad y AI superar estos desafíos? Póngase en contacto con Harmonic Security para obtener más información sobre el descubrimiento de la IA Shadow y hacer cumplir su política de uso de IA. El uso de la IA está impulsado por empleados, no las empresas de los comités, las empresas consideran incorrectamente el uso de la IA como algo que viene de arriba hacia abajo, definido por sus propios líderes empresariales visionarios. Ahora sabemos que eso está mal. En la mayoría de los casos, los empleados conducen la adopción de abajo hacia arriba, a menudo sin supervisión, mientras que los marcos de gobernanza todavía se están definiendo de arriba hacia abajo. Incluso si tienen herramientas sancionadas por la empresa, a menudo las evitan a favor de otras herramientas más nuevas que están mejor ubicadas para mejorar su productividad. A menos que los líderes de seguridad entiendan esta realidad, descubren y rigen esta actividad, están exponiendo el negocio a riesgos significativos. Por qué el bloqueo falla, muchas organizaciones han tratado de enfrentar este desafío con una estrategia de «bloquear y esperar». Este enfoque busca restringir el acceso a plataformas de IA conocidas y la adopción de esperanza se desacelera. La realidad es diferente. La IA ya no es una categoría que se puede cercar fácilmente. Desde aplicaciones de productividad como Canva y Grammarly hasta herramientas de colaboración con asistentes integrados, la IA se entrelaza en casi todas las aplicaciones SaaS. Bloquear una herramienta solo lleva a los empleados a otro, a menudo a través de cuentas personales o dispositivos de inicio, dejando a la empresa a ciegas a un uso real. Este no es el caso para todas las empresas, por supuesto. Los equipos de seguridad y gobernanza de IA de avance están buscando comprender de manera proactiva lo que los empleados están utilizando y para qué casos de uso. Buscan comprender lo que está sucediendo y cómo ayudar a sus empleados a usar las herramientas de la manera más segura posible. Shadow AI Discovery como un imperativo de gobernanza Un inventario de activos AI es un requisito regulatorio y no es agradable de tener. Los marcos como la Ley de la UE AI exigen explícitamente a las organizaciones a mantener la visibilidad de los sistemas de IA en uso, porque sin descubrimiento no hay inventario, y sin un inventario no puede haber gobernanza. Shadow AI es un componente clave de esto. Diferentes herramientas de IA plantean diferentes riesgos. Algunos pueden entrenar silenciosamente en datos propietarios, otros pueden almacenar información confidencial en jurisdicciones como China, creando exposición a la propiedad intelectual. Para cumplir con las regulaciones y proteger el negocio, los líderes de seguridad primero deben descubrir el alcance completo del uso de la IA, abarcar cuentas empresariales sancionadas y las personales no autorizadas. Una vez armado con esta visibilidad, las organizaciones pueden separar casos de uso de bajo riesgo de aquellos que involucran datos confidenciales, flujos de trabajo regulados o exposición geográfica. Solo entonces pueden hacer cumplir políticas de gobierno significativas que protejan los datos y permitan la productividad de los empleados. La forma en que la seguridad armónica ayuda a la seguridad armónica permite este enfoque al ofrecer controles de inteligencia para el uso de la IA de los empleados. Esto incluye el monitoreo continuo de la IA de la sombra, con evaluaciones de riesgos estándar para cada aplicación. En lugar de confiar en las listas de bloques estáticos, Harmonic proporciona visibilidad tanto en el uso de IA sancionado como no autorizado, luego aplica políticas inteligentes basadas en la sensibilidad de los datos, el papel del empleado y la naturaleza de la herramienta. Eso significa que se puede permitir que un equipo de marketing ponga información específica en herramientas específicas para la creación de contenido, mientras que los equipos de recursos humanos o legales están restringidos del uso de cuentas personales para la información confidencial de los empleados. Esto está respaldado por modelos que pueden identificar y clasificar la información a medida que los empleados comparten los datos. Esto permite a los equipos hacer cumplir las políticas de IA con la precisión necesaria. El camino hacia adelante Shadow Ai está aquí para quedarse. A medida que más aplicaciones SaaS incrustan la IA, el uso no administrado solo se expandirá. Las organizaciones que no abordan el descubrimiento hoy no pueden gobernar mañana. El camino a seguir es gobernarlo de manera inteligente, en lugar de bloquearlo. Shadow AI Discovery le da a CISOS la visibilidad que necesitan para proteger los datos confidenciales, cumplir con los requisitos reglamentarios y capacitar a los empleados para aprovechar los beneficios de productividad de manera segura. La seguridad armónica ya está ayudando a las empresas a dar el siguiente paso en la gobernanza de la IA. Para CISO, ya no se trata de si los empleados están usando Shadow AI … es si puedes verlo. ¿Encontró este artículo interesante? Este artículo es una pieza contribuida de uno de nuestros valiosos socios. Síguenos en Google News, Twitter y LinkedIn para leer más contenido exclusivo que publicamos.

«Pague para recibir pagos»: la nueva estafa de trabajo que está recaudando en millones en este momento

«Pague para recibir pagos»: la nueva estafa de trabajo que está recaudando en millones en este momento

¿Cómo suena esta oferta de trabajo? Cuando pagas, te pagan. Suena sospechoso, ¿verdad? De hecho, es una de las estafas laborales de más rápido crecimiento en este momento. Al observar las estafas laborales en general, los datos de la Comisión Federal de Comercio de los Estados Unidos (FTC) muestran que los informes de estafadores de empleo casi se han triplicado entre 2020 y 2024. Además, las pérdidas reportadas crecieron más de cinco veces, lo que pasa a $ 501 millones en 2024. En total, las estafas de trabajo son más comunes y más costosas que nunca. Y liderar esas pérdidas es una nueva raza de estafa de trabajo, donde las víctimas de hecho «pagan por pagar». «Pague para recibir un pago», la estafa de trabajo más popular que va a la FTC ha denominado estas estafas de «pagar por recibir» como «estafas de trabajo gamificadas» o «estafas de tareas». Dada la forma en que funcionan estas estafas, el nombre se ajusta. El trabajo se siente como una tarea de juego, y el único ganador es el estafador. Todo se desarrolla así: obtienes una oferta de trabajo por mensaje de texto o mensaje privado. El estafador le ofrece «trabajar» que involucre «optimización de aplicaciones» o «impulso de productos», que a menudo describen en términos sueltos y brumosos. Aceptas la oferta. Luego, el estafador lo configura con una cuenta en una aplicación o plataforma donde tiene la tarea de «me gusta» o «califique» conjuntos de videos o imágenes de productos en línea. Llegas a trabajar. La aplicación o plataforma es falsa, sin embargo, parece que está acumulando comisiones mientras hace clic y completa conjuntos de tareas. En este punto, el estafador podría repartir un pequeño pago o dos, haciéndole pensar que el trabajo realmente es legítimo. El estafador coloca el gancho. Aquí es donde entra la parte del juego «PAGO PARA PAGAR», si quieres más «trabajo», debes pagar por ello. En este punto, el estafador requiere un «depósito» para su próximo conjunto de tareas. Al igual que un videojuego, el estafador endulza el trato al decir que el próximo set puede «subir de nivel» sus ganancias. Te estafan. Usted hace el depósito, completa el conjunto de tareas e intenta obtener sus ganancias de la aplicación o plataforma, solo para descubrir que el estafador y su dinero se han ido. Todo era falso. Basado en lo que hemos visto en el pasado, estas estafas piden prestado de otros juegos de «fácil dinero» que se encuentran en las aplicaciones de pago. Las estafas de «dinero fácil» se construyen lentamente a medida que los estafadores construyen un falso sentido de confianza con las víctimas al obtener pequeños rendimientos de pequeñas inversiones con el tiempo. Finalmente, con la estafa, el estafador pide una gran cantidad y desaparece con ella. Las estafas de «Pagar por pagar» pueden funcionar de la misma manera. Algunas cosas a tener en cuenta también sobre esta estafa: según la FTC, cualquier trabajo que le pague a «me gusta» o «califica» el contenido es ilegal. Esa es la ironía aquí. Le pide que haga algo ilegal, lo que lleva a algo más ilegal: el ftf. Los informes muestran que los estafadores a menudo financian estas estafas con la criptomoneda. De hecho, la FTC dice que las personas pierden mucho más dinero en estafas de trabajo usando criptomonedas que cualquier otra forma de pago. Mantenga su dinero a salvo de las estafas de trabajo «Pague para recibir» Paso uno: las ofertas de empleo de significado sobre el mensaje de texto y las redes sociales Un reclutador adecuado se comunicará con usted por correo electrónico o por un sitio de redes de trabajo. Además, le darán detalles claros sobre un posible trabajo, y responderán cualquier pregunta que tenga tan claramente. Todo lo contrario, los estafadores escriben textos vagos y mensajes privados. A menudo son grandes en el bombo, pero cortos en detalles. Hacer preguntas sobre el trabajo le dará respuestas igualmente vagas. Ignora estas ofertas. Paso dos: mira a la empresa en el caso de las ofertas de trabajo en línea en general, busque la empresa. Consulte sus antecedentes y vea si es una compañía real, y vea si eso coincide con lo que ese reclutador le está diciendo. En los Estados Unidos, tiene varios recursos que pueden ayudarlo a responder esa pregunta. Better Business Bureau (BBB) ​​ofrece una lista de búsqueda de negocios en los EE. UU., Junto con un breve perfil, una calificación e incluso una lista de quejas (y respuestas de la compañía) libradas contra ellos. Pasar un tiempo aquí puede arrojar luz rápidamente sobre la legitimidad de una empresa. Para una lista de empresas con ubicaciones estadounidenses e internacionales, organizaciones como S&P Global Ratings y la Corporación Dun y Bradstreet también pueden proporcionar información de fondo. Por último, consulte el sitio web de la compañía. Vea si tiene un listado de trabajo que coincida con el que se le ofrece. El trabajo preliminar como este puede ayudar a descubrir una estafa. Paso tres: reafuse para pagar tan simple como parece, no pague para que le pagen. Cualquier caso en el que se le pida que pague por adelantado, con cualquier forma de pago, basura. Un empleador legítimo nunca le pedirá que invierta o deposite una pequeña cantidad de dinero con la promesa de un gran rendimiento. Y un empleador legítimo le proporcionará cosas como capacitación o equipo para hacer el trabajo para el que está calificado. Más formas en que puede evitar estafas de software de protección en línea como el nuestro puede ayudarlo a mantenerse mucho más seguro de las estafas y estafas en general. Específico para las estafas de trabajo, aquí hay solo algunas maneras en que puede ayudar: los estafadores aún usan enlaces a sitios maliciosos para engañar a las personas para que proporcionen su información personal. La protección web, incluida en nuestros planes, puede dirigirlo a partir de esos enlaces. Y a los estafadores les encantan los textos de cordones con enlaces a sitios sospechosos y otros lugares donde pueden robar información personal. McAfee+ puede bloquear esos enlaces y evitar que haga clic en ellos. La tecnología AI detecta automáticamente las estafas escaneando URL en sus mensajes de texto. Si hace clic accidentalmente en un enlace malo, bloqueará un sitio arriesgado. Los estafadores obtienen su información de contacto de alguna parte. Muchos estafadores lo obtienen de los sitios de Data Broker. Impulsados ​​por miles de puntos de datos en miles de millones de personas, pueden cosechar su información de contacto, junto con otra información personal para un ataque altamente personalizado. La limpieza de datos personales de McAfee escanea algunos de los sitios de corredores de datos más riesgosos, muestra cuáles están vendiendo su información personal y, según su plan, puede ayudarlo a eliminarla. También puede reducir su perfil en las redes sociales con nuestro gerente de privacidad social. Le ayuda a ajustar más de 100 configuraciones de privacidad en sus cuentas de redes sociales en solo unos pocos clics, por lo que su información personal solo es visible para las personas con las que desea compartirla. Presentación de protección y privacidad de robo de identidad McAfee+ para su vida digital. Descargue McAfee+ ahora \ x3cimg Height = «1» Width = «1» Style = «Display: None» src = «https://www.facebook.com/tr?id=766537420057144&ev=pageview&noScript=1″/> \ x3c/noscript> ‘);

CVE-2025-55177: Vulnerabilidad en los clientes de mensajería de WhatsApp IOS y MacOS explotados para ataques de clic cero-Fuente: Socprime.com

CVE-2025-55177: Vulnerabilidad en los clientes de mensajería de WhatsApp IOS y MacOS explotados para ataques de clic cero-Fuente: Socprime.com

A fines de agosto, Apple apresuró una actualización de emergencia para Patch CVE-2025-43300, un día fuera de los límites, un día cero en iOS, iPados y macOS. Pero la historia no termina ahí. Los investigadores de seguridad ahora han descubierto otro problema grave: una vulnerabilidad de día cero de WhatsApp en sus clientes iOS y MacOS. El defecto, que WhatsApp ha parcheado desde entonces, fue aprovechado junto con el error de nivel del sistema operativo de Apple en una sofisticada cadena de exploit diseñada para entregar spyware en una campaña altamente dirigida. El último descubrimiento destaca una dependencia bruscamente creciente de las hazañas de día cero por parte de los actores avanzados de amenazas. Los atacantes encadenan cada vez más vulnerabilidades múltiples juntas para evadir los controles de seguridad y lograr el compromiso del dispositivo en una escala más amplia. En los últimos cuatro años, el volumen de explotación de día cero ha mostrado una subida estable, con solo fluctuaciones menores de año a año. En 2024, el grupo de análisis de amenazas de Google documentó 75 vulnerabilidades de día cero abusadas activamente en la naturaleza, una señal clara de que el problema se está acelerando. Ahora en 2025, los días cero siguen siendo el método principal de compromiso inicial, representando aproximadamente un tercio de todos los intentos de intrusión. Regístrese en la plataforma SOC Prime para acceder al mercado global de más de 600,000 reglas de detección y consultas hechas por ingenieros de detección, actualizados diariamente y enriquecidos con amenazas Intel para defenderse de manera proactiva contra las amenazas existentes y actuales anticipadas más. Todas las reglas se pueden usar en docenas de plataformas SIEM, EDR y Data Lake y están alineadas con Miter ATT & CK®. Además, cada regla se enriquece con enlaces CTI, plazos de ataque, configuraciones de auditoría, recomendaciones de triaje y metadatos más extensos. Los ingenieros de seguridad pueden alcanzar instantáneamente la extensa colección de reglas Sigma basadas en el comportamiento en la etiqueta «CVE» haciendo clic en el botón Explorar detecciones a continuación. Explore Detections Los ingenieros de seguridad también pueden aprovechar la IA delcentor, un IDE y un copiloto para la ingeniería de detección, que ahora se mejora con un nuevo modo de bot de chat AI y el soporte de herramientas MCP. Con Uncoder, los defensores pueden convertir instantáneamente en las CII en consultas de caza personalizadas, el código de detección de artesanía a partir de informes de amenazas crudas, generar diagramas de flujo de ataque, habilitar la predicción de etiquetas ATT y CK, aprovechar la optimización de consultas impulsadas por la IA y traducir contenido de detección en múltiples plataformas. Análisis CVE-2025-55177 WhatsApp ha implementado actualizaciones de seguridad para abordar un defecto recientemente revelado, rastreado como CVE-2025-55177, que ha sido explotado activamente en la naturaleza para ataques dirigidos. La vulnerabilidad proviene de verificaciones de autorización insuficientes en mensajes de sincronización de dispositivos vinculados. La explotación del error permite a un atacante remoto forzar el dispositivo de una víctima a procesar contenido malicioso de una URL arbitraria, sin requerir que la víctima tome ninguna medida. Los investigadores de seguridad advierten que CVE-2025-55177 no fue explotado de forma aislada. Estaba encadenado con una vulnerabilidad de nivel AG de Apple (CVE-2025-43300) en una campaña sofisticada diseñada para implementar spyware. WhatsApp confirmó que aproximadamente 200 personas fueron atacadas en los últimos tres meses, lo que representa una operación altamente selectiva y avanzada. El asesor del proveedor señala que CVE-2025-55177 afecta múltiples versiones de WhatsApp y WhatsApp Business, incluida WhatsApp para iOS antes de V2.25.21.73, WhatsApp Business para iOS antes de V2.25.21.78, y WhatsApp para Mac antes de V2.25.21.78. En las alertas enviadas a las personas afectadas, WhatsApp recomendó pasos urgentes, incluido un reinicio completo de fábrica de dispositivos, junto con la actualización de la aplicación WhatsApp y el sistema operativo subyacente a las últimas versiones. Los expertos en seguridad enfatizaron que esta cadena de exploit funcionaba como un «ataque de clic cero», una clase de exploit que no requiere interacción del usuario. Tales ataques representan una de las formas de explotación más peligrosas, ya que pueden comprometer un dispositivo en silencio y persistentemente. Al aprovechar el conjunto de productos Completo de Soc Prime respaldado por IA y la principal experiencia en ciberseguridad, los equipos de seguridad están equipados con tecnologías a prueba de futuro para la protección lista para la empresa que pueden mejorar significativamente la postura de seguridad cibernética de la organización. URL de publicación original: https://socprime.com/blog/latest-threats/cve-2025-55177-vulnerability/category & tags: blog, últimas amenazas, cVe-2025-55177, macos, whatsapp-blog, últimas amenazas, cVe-2025-55177, whatsapp, whatsapp, whatsapp, whatsapp.

UK NCSC apoya la divulgación pública para las amenazas de derivación de AI Safeguard

UK NCSC apoya la divulgación pública para las amenazas de derivación de AI Safeguard

Las principales agencias de seguridad cibernética del Reino Unido y IA han acogido ampliamente los esfuerzos para reclutar el proceso de encontrar y arreglar las amenazas de derivación de salvaguardia de IA. En una publicación de blog publicada hoy, el Director Técnico del Centro Nacional de Seguridad Cibernética (NCSC) para la seguridad de la investigación de IA, Kate S y el científico de investigación del Instituto de Seguridad de AI (AISI), Robert Kirk, advirtió sobre la amenaza de los sistemas de IA fronterizos de tales amenazas. Los cibercriminales ya se han mostrado expertos en pasar por alto las barandillas incorporadas en modelos como ChatGPT, Gemini, Llama y Claude. La semana pasada, los investigadores de ESET descubrieron el «primer ransomware conocido con IA» construido con OpenAI. El NCSC y AISI dijeron que los programas de recompensa de errores recién lanzados de OpenAI y Anthrope podrían ser una estrategia útil para mitigar tales riesgos, de la misma manera que la divulgación de vulnerabilidad funciona para hacer que el software regular sea más seguro. Lea más sobre Safeguard Bypass: GPT-5 Las salvaguardas evitadas utilizando jailbreak impulsado por la narración, aparte de mantener las salvaguardas del sistema de IA fronteriza adecuadas para el propósito después del despliegue, con suerte ayudarán a fomentar una cultura de divulgación responsable y colaboración de la industria, aumentar el compromiso en la comunidad de seguridad y permitir a los investigadores a practicar sus habilidades, agregarán. Sin embargo, el NCSC y AISI advirtieron que podría haber gastos generales significativos asociados con el triado y la gestión de informes de amenazas, y que los desarrolladores participantes primero deben tener buenas prácticas de seguridad fundamentales. The Ingredients of a Good Disclosure Program The blog outlined several best practice principles for developing effective public disclosure programs in the field of safeguard bypass threats: A clearly defined scope to help participants understand what success looks like Internal reviews and initially discovered weaknesses to be handled before the program is launched Reports to be easy to track and reproduce, such as via unique IDs, and copy and share tools The NCSC and AISI noted that the presence of such a El programa no hace que un modelo sea más seguro o seguro, y alentó más investigaciones sobre preguntas como: ¿Pueden otras áreas de ciberseguridad ofrecer herramientas o enfoques útiles para pedir prestado? ¿Qué incentivos deben ofrecerse a los participantes del programa? ¿Cómo se deben mitigar las debilidades de salvaguardia descubierta? ¿Existen métodos para la colaboración intersectorial que puedan respaldar el manejo de ataques que se transfieren a través de modelos y programas? ¿Cómo debemos juzgar la gravedad de las debilidades de derivación de salvaguardia, especialmente cuando no conocemos el contexto de despliegue? ¿Qué tan público y abierto deberían ser tales programas?

RSAC 2025 Envuelto-Semana en seguridad con Tony Anscombe

Desde el poder de la defensa colaborativa hasta la seguridad de la identidad y la IA, ponte al día con los temas y discusiones clave del evento

Paquete malicioso NPM NodeJS-SMTP imita Nodemailer, apunta a las billeteras atómicas y exodus

Paquete malicioso NPM NodeJS-SMTP imita Nodemailer, apunta a las billeteras atómicas y exodus

sep 02, 2025Ravie Lakshmanancryptocurrency / malware Los investigadores de seguridad cibernética han descubierto un paquete de NPM malicioso que viene con características sigilosas para inyectar código malicioso en aplicaciones de escritorio para billeteras de criptomonedas como Atomic y Exodus en los sistemas de Windows. El paquete, llamado NodeJS-SMTP, se hace pasar por el Legitimate Correo electrónico Biblioteca Nodemailer con un eslogan idéntico, un estilo de página y descripciones de lectura, atrayendo un total de 347 descargas desde que fue subido al Registro NPM en abril de 2025 por un usuario llamado «Nikotimon». Actualmente ya no está disponible. «En la importación, el paquete utiliza herramientas de electrones para desempacar la aplicación Atomic Wallet. El objetivo principal es sobrescribir la dirección del destinatario con billeteras con codificación dura controladas por el actor de amenazas, redirigir bitcoin (BTC), ethereum (ETH), atado (USDT y TRX USDT), XRP (XRP) y transacciones de Solana (SOL), actuando efectivamente como un clipper de criptoria. Dicho esto, el paquete ofrece su funcionalidad establecida al actuar como un correo basado en SMTP en un intento por evitar aumentar las sospechas de los desarrolladores. El paquete todavía funciona como un correo y expone una interfaz de entrega compatible con NodEmailer. Esa cubierta funcional reduce la sospecha, permite que las pruebas de aplicación pasen y les da a los desarrolladores pocas razones para cuestionar la dependencia. El desarrollo se produce meses después de que ReversingLabs descubrió un paquete NPM llamado «PDF-to-office» que alcanzó los mismos objetivos al desempacar los archivos «App.Asar» asociados con billeteras atómicas y exodus y modificando dentro de ellos un archivo JavaScript para introducir la función de Clipper. «Esta campaña muestra cómo una importación de rutina en una estación de trabajo de un desarrollador puede modificar silenciosamente una aplicación de escritorio separada y persistir en reinicios», dijo Boychenko. «Al abusar de la ejecución del tiempo de importación y el envasado de electrones, un cartelero del aspecto parecido se convierte en un drenador de billetera que altera Atomic y Exodus en los sistemas de Windows comprometidos».

Entrevistando para un trabajo? Detectar una estafa con estas preguntas

Entrevistando para un trabajo? Detectar una estafa con estas preguntas

Las estafas de trabajo están en aumento. Y hacer las preguntas correctas puede ayudarlo a evitarlas. Ese aumento en las estafas de empleo es elevado, según la Comisión Federal de Comercio de los Estados Unidos (FTC). Datos recientes muestran que las pérdidas informadas han crecido cinco veces más entre 2020 y 2024. Solo en 2024, las pérdidas informadas alcanzaron medio mil millones de dólares, con pérdidas no reportadas sin duda empujando las pérdidas reales pero más altas. La semana pasada, cubrimos cómo las estafas de «pagar por recibir el pago» representan una gran parte de las estafas de trabajo en línea. Aquí, cubriremos un par más que hemos visto circular en las redes sociales y a través de textos, y cómo algunas preguntas puntiagudas pueden ayudarlo a evitarlas. Dos estafas clásicas de trabajo para tener en cuenta la estafa de cabezal que algunos estafadores de trabajo posan, ya que los reclutadores de agencias de trabajo que alcanzan las posibles víctimas de la misma manera que lo hacen las agencias legítimas: por correo electrónico, mensajes de texto y sitios de redes. A veces, esto deja a las personas con la guardia baja porque no es inaudito ser contactado de esta manera, «de la nada», por así decirlo. Sin embargo, una de las formas más rápidas de detectar un estafador es cuando el «reclutador» pide pagar una tarifa por el emparejamiento, particularmente si lo piden por adelantado. Los cazadores de cabecera, agencias temporales y agencias de personal legítimas generalmente reciben pagos por la empresa o empresa que finalmente hace la contratación. Los candidatos de trabajo no pagan nada. Las estafas de capacitación y tarifa de equipos se producen otra forma de estafa durante el proceso de «incorporación» del trabajo. El estafador felizmente le da la bienvenida a la víctima a la compañía y luego les informa que deberán tomar una capacitación en línea y tal vez comprar una computadora u otro equipo de oficina. Por supuesto, el estafador le pide a la víctima que pague todo, lo que quita a la víctima de cientos de dólares y el estafador con su información de pago. Las estafas de trabajo spot haciendo las preguntas correctas de una manera que puede detectar una estafa de trabajo es presionar para obtener respuestas. Hacer preguntas puntuales sobre una empresa y el trabajo que está ofreciendo, tal como lo haría en cualquier entrevista real, puede revelar brechas en la historia de un estafador. En efecto, los estafadores se están poniendo en un trabajo de actuación, y algunos no se preparan a fondo para su papel. No piensan en los detalles, con la esperanza de que las víctimas estén lo suficientemente felices de una perspectiva laboral para hacer demasiadas preguntas. Si el proceso de contratación se mueve más rápido de lo esperado o los detalles sobre un trabajo parecen ligeros, de hecho es hora de hacer preguntas. Aquí hay algunos que puede mantener a mano cuando comience a preguntarse si tiene una estafa en sus manos … «¿Cuál es la descripción completa del trabajo y cuáles son las responsabilidades cotidianas?» Este es un gran lugar para comenzar. Los empleadores legítimos escriben listados de trabajo que publican en su sitio web y sitios de trabajo. En esas descripciones, el trabajo y todo lo que implica se detalla en la carta. Un empleador real debe poder proporcionarle una descripción del trabajo o al menos cubrirlo claramente en el transcurso de una conversación. «¿Dónde se basa la empresa y dónde tiene oficinas?» Este puede tropezar con un estafador rápidamente. Un estafador podría evitar dar una dirección física. Del mismo modo, podrían ofrecer una falsa. Una no respuesta o una mentira puede llamar fácilmente una estafa siguiendo la pregunta con una búsqueda web de una dirección física. (Recursos como Better Business Bureau también pueden ayudarlo a investigar una empresa y su historial). «¿Con quién estaré trabajando y a quién informaré?» Preguntar sobre compañeros de trabajo, jefes, estructuras de informes y similares también puede ayudar a oler una estafa. Los empleadores reales, una vez más, tendrán respuestas listas aquí. Incluso podrían comenzar a dejar caer nombres y detalles sobre la tenencia y los antecedentes de las personas. Mientras tanto, este es un lugar más donde los estafadores pueden inclinar su mano porque no han inventado esos detalles. «¿Cuáles son los próximos pasos en el proceso de contratación?» Esta pregunta por sí sola puede ofrecer un signo revelador. Muchas estafas de trabajo se mueven a través del proceso de contratación a una velocidad relativa de verificación vertiginosa, más allá de los bucles de entrevista y las devoluciones de llamada habituales que tienen muchos trabajos legítimos. Los estafadores quieren entregar a sus víctimas rápidamente, por lo que también harán que el «proceso de contratación» también sea rápido. Si se siente como si estuvieras abriendo los pasos, podría ser una estafa. «¿Puedes contarme sobre la historia de la compañía?» Cada negocio tiene una historia, incluso si todavía está en sus días de inicio. Cualquier persona en un puesto de reclutamiento o contratación tendrá un buen manejo de esta pregunta, como lo harán en cualquier pregunta de seguimiento sobre la misión u objetivos de la compañía. Nuevamente, la vaguedad en respuesta a este tipo de preguntas podría ser un signo de una estafa. Más formas en que puede evitar las estafas de trabajo atiende a las ofertas de trabajo en las redes sociales. Ya sea a través de sitios de redes sociales como Facebook, Instagram y similares, los estafadores a menudo se comunican a través de mensajes directos. Los reclutadores se adhieren a sitios legítimos de redes comerciales como LinkedIn. Las empresas mantienen cuentas establecidas sobre las plataformas de reclutamiento en las que las personas conocen y confían, por lo tanto, vea cualquier contacto fuera de ellas como sospechoso. Filtrar enlaces de estafa. Los estafadores usan el «proceso de contratación» para engañar a las personas para que proporcionen su información personal con enlaces maliciosos. La protección web, incluida en nuestros planes, puede dirigirlo a partir de ellos. Del mismo modo, nuestro detector de estafas escanea las URL en sus mensajes de texto y lo alerta si son incompletos. Si hace clic accidentalmente en un enlace malo, la protección de estafa web y de texto bloqueará un sitio arriesgado. Baja tu perfil. Muchos estafadores obtienen su información de contacto de los sitios de Data Broker. La limpieza de datos personales de McAfee escanea algunos de los sitios de corredores de datos más riesgosos, muestra cuáles están vendiendo su información personal y, según su plan, puede ayudarlo a eliminarla. Nuestro gerente de privacidad social reduce su perfil público más bajo. Le ayuda a ajustar más de 100 configuraciones de privacidad en sus cuentas de redes sociales en solo unos pocos clics, por lo que su información personal solo es visible para las personas con las que desea compartirla. Presentación de protección y privacidad de robo de identidad McAfee+ para su vida digital. Descargue McAfee+ ahora \ x3cimg Height = «1» Width = «1» Style = «Display: None» src = «https://www.facebook.com/tr?id=766537420057144&ev=pageview&noScript=1″/> \ x3c/noscript> ‘);

Ataques de privacidad en el aprendizaje federado – Fuente: www.nist.gov

Ataques de privacidad en el aprendizaje federado – Fuente: www.nist.gov

Fuente: www.nist.gov – Autor: Joseph Near, David Darais, Dave Buckley, Mark Durkee. Esta publicación es parte de una serie sobre aprendizaje federado que presenta la privacidad. La serie es una colaboración entre NIST y el Centro de Ética e Innovación del Gobierno del Gobierno del Reino Unido. Obtenga más información y lea todas las publicaciones publicadas hasta la fecha en el espacio de colaboración de ingeniería de privacidad de NIST o el blog CDEI. Nuestra primera publicación de la serie introdujo el concepto de aprendizaje federado, un enfoque para capacitar a los modelos de IA en datos distribuidos compartiendo actualizaciones de modelos en lugar de datos de capacitación. A primera vista, el aprendizaje federado parece ser perfecto para la privacidad, ya que evita completamente compartir datos. Sin embargo, el trabajo reciente sobre ataques de privacidad ha demostrado que es posible extraer una sorprendente cantidad de información sobre los datos de capacitación, incluso cuando se usa el aprendizaje federado. Estas técnicas se dividen en dos categorías principales: ataques que se dirigen a las actualizaciones del modelo compartidas durante el entrenamiento y ataques que extraen datos del modelo de IA después de que haya terminado el entrenamiento. Esta publicación resume los ataques conocidos y proporciona ejemplos recientes de la literatura de investigación. El objetivo principal de los desafíos del premio de las mascotas del Reino Unido y el Reino Unido era desarrollar defensas prácticas que aumenten los marcos de aprendizaje federados para evitar estos ataques; Las publicaciones futuras de esta serie describirán estas defensas en detalle. Ataques a las actualizaciones del modelo en el aprendizaje federado, cada participante presenta actualizaciones de modelo en lugar de datos de capacitación sin procesar durante el proceso de capacitación. En nuestro ejemplo de la última publicación, en la que un consorcio de bancos quiere capacitar a un modelo de IA para detectar transacciones fraudulentas, las actualizaciones del modelo pueden consistir en actualizaciones a los parámetros del modelo (los componentes del modelo que controlan cómo se realizan sus predicciones) en lugar de datos sin procesar sobre transacciones financieras. A primera vista, las actualizaciones del modelo pueden parecer que no transmiten información sobre transacciones financieras. Figura 1: Datos extraídos de las actualizaciones del modelo por el ataque desarrollado por Hitaj et al. La fila superior contiene datos de entrenamiento originales; La fila inferior contiene datos extraídos de las actualizaciones del modelo. Crédito: Hitaj et al. Crédito: Sin embargo, NIST, investigaciones recientes han demostrado que a menudo es posible extraer datos de capacitación sin procesar de las actualizaciones del modelo. Un ejemplo temprano provino del trabajo de Hitaj et al., Que demostraron que era posible entrenar un segundo modelo de IA para reconstruir los datos de entrenamiento basados ​​en actualizaciones del modelo. Un ejemplo de sus resultados aparece en la Figura 1: la fila superior contiene datos de entrenamiento utilizados para entrenar un modelo que reconoce dígitos escritos a mano, y la fila inferior contiene datos extraídos de las actualizaciones del modelo por su ataque. Figura 2: Datos extraídos de las actualizaciones del modelo por el ataque desarrollado por Zhu et al. Cada fila corresponde a un conjunto de datos de entrenamiento y un modelo de IA. Cada columna muestra datos extraídos de las actualizaciones del modelo durante el entrenamiento; Las columnas con valores más altos para «ITER» representan datos extraídos más adelante en el proceso de capacitación. Crédito: Zhu et al. Crédito: NIST trabaja más tarde de Zhu et al. sugiere que este tipo de ataque es posible para muchos tipos diferentes de modelos y sus actualizaciones de modelos correspondientes. La Figura 2 contiene ejemplos de cuatro modelos de IA diferentes, lo que demuestra que el ataque puede extraer aproximaciones casi perfectas de los datos de entrenamiento originales de las actualizaciones del modelo. ¡Cómo solucionarlo! Los ataques a las actualizaciones del modelo sugieren que el aprendizaje federado solo no es una solución completa para proteger la privacidad durante el proceso de capacitación. Muchas defensas contra tales ataques se centran en proteger las actualizaciones del modelo durante la capacitación, de modo que la organización que agregue las actualizaciones del modelo no tiene acceso a actualizaciones individuales. A menudo se dice que las tecnologías de mejora de la privacidad que protegen las actualizaciones del modelo durante la capacitación proporcionan privacidad de entrada: evitan que el adversario aprenda cualquier cosa sobre las entradas (es decir, las actualizaciones del modelo) al sistema. Muchos enfoques para la privacidad de insumos, incluidos los enfoques utilizados en los desafíos del premio de las mascotas del Reino Unido, los Estados Unidos, se basan en aplicaciones creativas de la criptografía. Destacará varias de estas soluciones a lo largo de esta serie de blogs. Ataques contra modelos entrenados La segunda clase importante de ataques apunta al modelo de IA entrenado después de que el entrenamiento haya terminado. El modelo es el resultado del proceso de capacitación, y a menudo consiste en parámetros del modelo que controlan las predicciones del modelo. Esta clase de ataques intenta reconstruir los datos de entrenamiento de los parámetros del modelo, sin ninguna de la información adicional disponible durante el proceso de capacitación. Esto puede sonar como un desafío más difícil, pero investigaciones recientes han demostrado que tales ataques son factibles. Figura 3: Datos de entrenamiento extraídos de un modelo de IA entrenado utilizando el ataque desarrollado por Haim et al. La parte superior de la figura (a) muestra datos extraídos; La parte inferior (b) muestra las imágenes correspondientes de los datos de entrenamiento originales. Crédito: Haim et al. Crédito: los modelos NIST AI basados ​​en el aprendizaje profundo son particularmente susceptibles a la extracción de datos de capacitación de modelos capacitados porque las redes neuronales profundas parecen memorizar sus datos de capacitación en muchos casos. Los investigadores aún no están seguros de por qué ocurre esta memorización, o si es estrictamente necesario capacitar a modelos de IA efectivos. Sin embargo, desde una perspectiva de privacidad, este tipo de memorización es un problema importante. Trabajo reciente de Haim et al. demostró la viabilidad de extraer datos de entrenamiento de un modelo de IA capacitado para reconocer objetos en las imágenes; Aparece un ejemplo en la Figura 3. Figura 4: Datos de entrenamiento extraídos de un modelo de difusión utilizando el ataque desarrollado por Carlini et al. Los modelos de difusión están diseñados para generar imágenes; Un ejemplo popular es el Dall-E de Openai. Crédito: Carlini et al. Crédito: NIST Figura 5: Datos de entrenamiento extraídos de un modelo de lenguaje grande (LLM) utilizando el ataque desarrollado por Carlini et al. Este ejemplo es de GPT-2, el predecesor de ChatGPT. Crédito: Carlini et al. Crédito: NIST El desafío de los datos de capacitación memorizados parece ser aún peor para modelos más grandes y más complejos, incluidos los modelos de lenguaje grandes (LLM) populares (LLM) como los modelos de generación de imágenes y ChatGPT como Dall-E. La Figura 4 muestra un ejemplo de extracción de datos de entrenamiento de un modelo de generación de imágenes utilizando un ataque desarrollado por Carlini et al.; La Figura 5 muestra un ejemplo de extracción de datos de entrenamiento de un modelo de lenguaje grande utilizando un ataque de Carlini et al. ¡Cómo solucionarlo! Los ataques a modelos entrenados muestran que los modelos entrenados son vulnerables, incluso cuando el proceso de entrenamiento está completamente protegido. Las defensas contra tales ataques se centran en controlar el contenido de información del modelo capacitado en sí, para evitar que revele demasiado sobre los datos de entrenamiento. A menudo se dice que las tecnologías de mejora de la privacidad que protegen el modelo capacitado proporcionan privacidad del resultado: evitan que el adversario aprenda cualquier cosa sobre los datos de capacitación de las salidas del sistema (es decir, el modelo capacitado). El enfoque más completo para garantizar la privacidad del resultado se llama privacidad diferencial, y es el tema de una serie de blogs NIST anterior y nuevos borradores. Muchas de las soluciones desarrolladas en los desafíos del premio de las mascotas del Reino Unido, el premio de las mascotas, aprovechan la privacidad diferencial para defenderse de los ataques contra el modelo entrenado, que destacaremos más adelante en esta serie de blogs. Como siempre, esperamos saber de usted con cualquier pregunta y retroalimentación. Por favor contáctenos en las mascotas [at] cdei.gov.uk (mascotas[at]CDEI[dot]gobierno[dot]Reino Unido) o privacidad [at] nist.gov (privacyeng[at]nist[dot]Gobierno). A continuación en nuestra próxima publicación, presentaremos uno de los temas clave para el aprendizaje federado: la distribución de los datos entre las entidades participantes. URL de publicación original: https://www.nist.gov/blogs/cybersecurity-insights/privacy-attacks-federated-learning

Página 22 de 108

Funciona con WordPress & Tema de Anders Norén