En CES 2024 en Las Vegas, Qualcomm reveló las capacidades de IA en el dispositivo del chip Snapdragon XR2+ Gen 2 para auriculares de realidad virtual y mixta. Durante un discurso de apertura el 10 de enero, el presidente y director ejecutivo de Qualcomm, Cristiano Amon, habló sobre los casos de uso empresarial de la realidad virtual, incluido el suministro de entornos digitales para la capacitación. Sugirió tres preguntas que la realidad virtual y la resonancia magnética podrían responder para las empresas: “¿Cómo se capacita a las personas? ¿Cómo te sumerges de lleno en ese entorno digital? ¿Cómo se desarrollan las comunicaciones? Además, Amon habló sobre sus predicciones para el futuro de los teléfonos mejorados con IA. Nota: Este artículo se actualizó para reflejar el discurso de apertura de Qualcomm del 10 de enero. TechRepublic cubre CES 2024 de forma remota. Los chips Snapdragon XR2+ Gen 2 mejoran las reuniones de realidad virtual y mixta. El Snapdragon XR2+ Gen 2 es la continuación de la plataforma Snapdragon XR2 Gen 2 para IA, realidad virtual y realidad mixta. El Snapdragon XR2+ Gen 2 ofrece lo siguiente: resolución de 4,3K por 4,3K por ojo. 90 fotogramas por segundo. Admite 12 o más cámaras simultáneas para seguimiento de movimiento Conectividad Wi-Fi 7, Wi-Fi 6E, Bluetooth 5.3 y Bluetooth 5.2. El Snapdragon XR2+ Gen 2 tiene una frecuencia de GPU más alta en un 15 % y una frecuencia de CPU en un 20 % en comparación con el Snapdragon XR2 Gen 2. Eso ayuda al Snapdragon XR2+ Gen 2 a proporcionar “pantallas a escala de habitación, superposiciones de tamaño real y escritorios virtuales” más fluidos. dijo Hugo Swart, vicepresidente y director general de XR, Qualcomm Technologies, Inc., en un comunicado de prensa. VER: En más noticias de CES 2024, HP presentó sus computadoras portátiles Spectre x360 16 2 en 1 y Spectre x360 14 2 en 1 capaces de ejecutar cargas de trabajo de IA locales. (TechRepublic) «Nuestro trabajo era crear un motor informático que pudiera hacer que esa tecnología (IA) se ejecutara de manera generalizada», dijo Amon durante el discurso de apertura de Qualcomm en CES. “Estamos en un punto en el que esas capacidades (de IA) en los procesadores y semiconductores están disponibles. El siguiente paso es desarrollar esos casos de uso y aplicaciones”. Para las empresas y los empleados, eso significa escritorios virtuales, reuniones virtuales y demostraciones virtuales más eficientes. Tenga en cuenta que esto no significa necesariamente que la IA generativa se ejecute en unos auriculares; en cambio, el rendimiento de la IA de un solo chip ayuda a realizar un seguimiento de todos los datos necesarios para fusionar imágenes digitales y físicas. «La computación espacial será otra plataforma informática que eventualmente alcanzará una gran escala», dijo Amon durante la conferencia magistral. Qualcomm, que compite con Apple, Intel y NVIDIA, Samsung y Google utilizarán el Snapdragon XR2+ Gen 2 en sus ofertas planificadas de realidad virtual (Figura A) que se ejecutan en Android, que eventualmente podría competir con el Apple Vision Pro. El Snapdragon XR2+ Gen 2 compite actualmente con la tecnología AI PC de Intel para dispositivos livianos y automotrices, así como con los semiconductores de NVIDIA. Figura A La plataforma de referencia para los auriculares VR y MR de Qualcomm. Una plataforma de referencia es una prueba de concepto para posibles aplicaciones de hardware. Imagen: Qualcomm Technologies, Inc. Qualcomm mira hacia el futuro con teléfonos mejorados con IA Durante su discurso de apertura, Amon analizó la historia de Qualcomm en el espacio de la telefonía móvil. El desarrollo de chips en los que ejecutar IA representa una evolución de la tecnología de dispositivos móviles, dijo, pero no predice que los dispositivos impulsados por IA reemplazarán a los teléfonos actuales. En cambio, Amon dijo: «Lo que va a pasar ahora es que el teléfono tendrá una función diferente, que no es sólo la que solía hacer, donde el teléfono era bueno para todas las aplicaciones que tienes, sino que también el teléfono va a funcionar». comunicarse con la nube. El teléfono no irá a ninguna parte, pero será mejorado por la IA”. Por ejemplo, dijo Amon, una persona podría pedirle a un asistente de IA generativa que llame a un Uber. En lugar de utilizar la aplicación Uber en el teléfono, el asistente de IA generativa puede conectarse directamente a Uber a través de la nube. Noticias de tecnología automotriz de Qualcomm en CES 2024 Qualcomm continuó la tendencia clásica de CES de mostrar la última tecnología automotriz con su plataforma Snapdragon Digital Chassis, que permite servicios de automóviles conectados para el trabajo en movimiento y la eficiencia de la vida. Otras ofertas de automóviles conectados de Qualcomm que se mostrarán en CES 2024 incluyen: Snapdragon Ride Platform, que ayuda a los fabricantes de automóviles globales y a los proveedores de nivel 1 a crear soluciones de conducción automatizada con funciones de asistencia a la conducción de nivel 3, como mantenerse en el carril y mantener automáticamente la velocidad. Snapdragon Ride Flex SoC, informática centralizada para cabina digital, asistencia al conductor y determinadas funciones de conducción autónoma en un único sistema en chip. Los servicios Snapdragon Car-to-Cloud brindan una manera para que las organizaciones impulsen actualizaciones a los servicios de automóviles conectados. Un entorno nativo de la nube altamente eficiente para el desarrollo y la implementación de aplicaciones automotrices proporcionado en colaboración con AWS. SoC Snapdragon Digital Chassis para vehículos de dos ruedas para vehículos pequeños y vehículos agrícolas o ganaderos. Una de las actualizaciones son las “cabinas digitales habilitadas para IA de próxima generación” de Qualcomm para IA generativa en el borde (en este caso, sobre la marcha). Eso significa que los automóviles, dependiendo de la marca individual y de las ofertas de aplicaciones, pueden ejecutar aplicaciones de inteligencia artificial generativa para actualizaciones dinámicas de información relevante para los conductores en la carretera. Los servicios y recomendaciones se pueden personalizar y las aplicaciones pueden anticipar las preferencias y necesidades del conductor. «Nuestro compromiso con el avance de la tecnología automotriz en apoyo de los fabricantes de automóviles globales, los proveedores de primer nivel y nuestros socios del ecosistema está ayudando a dar forma al futuro de los vehículos definidos por software y nos está acelerando hacia una nueva era para la industria automotriz», dijo Nakul Duggal, senior vicepresidente y director general de automoción y computación en la nube de Qualcomm Technologies, Inc., en un comunicado de prensa.
Etiqueta: AWS
Cuando comenzó 2023, Rada Stanic, jefe de tecnología de AWS en Australia y Nueva Zelanda, imaginó que el año estaría dominado por ayudar a los clientes a construir plataformas de datos más modernas en la nube, con un poco de inteligencia artificial y aprendizaje automático en la mezcla. Ese plan cambió rápidamente con la aparición de ChatGPT y una nueva era de IA generativa. «Cuando apareció la IA generativa, se hizo cargo de casi todas las conversaciones que teníamos con nuestros clientes de diferentes industrias y realmente dominó el año», dijo Stanic a TechRepublic. Stanic y Louise Stigwood, directora empresarial de AWS en Australia y Nueva Zelanda, esperan que los casos de uso de IA generativa entre los clientes con sede en Australia y Nueva Zelanda pasen al nivel de producción en 2024. Las empresas de Australasia también se centrarán en la integración de IA responsable y la creación de plataformas de datos. que garantizan que las iniciativas de IA sean un éxito. Saltar a: AWS reinventó su agenda para 2023 a medida que surgieron los LLM en IA generativa. La incorporación repentina de la IA generativa hizo que AWS, al igual que otros proveedores de la nube, aumentara la innovación relacionada con la IA en 2023, desde la estrategia hasta la ejecución. Esto culminó con una serie de grandes anuncios en la conferencia re:Invent del hiperescalador de noviembre de 2023. Rada Stanic, tecnólogo jefe de AWS en Australia y Nueva Zelanda VER: Australia necesita prepararse para aprovechar los beneficios de la inteligencia artificial. Estos incluyeron un nuevo asistente generativo impulsado por IA, Amazon Q, dirigido a empresas. AWS también amplió la elección del modelo básico, las capacidades de ajuste y las herramientas de IA responsable disponibles dentro de su nueva plataforma de IA generativa Amazon Bedrock, entre otros anuncios. «Tenemos este plan de ayudar a los clientes con todo, desde la creación de servicios generativos impulsados por IA hasta proporcionar herramientas que ayuden a democratizar la tecnología para desarrolladores y clientes que no tienen fuertes habilidades tecnológicas», dijo Stanic. Esto está en línea con los esfuerzos que AWS ha realizado con otros productos y servicios, incluido Amazon SageMaker, que se lanzó en 2017 como una plataforma que facilita la implementación de modelos de aprendizaje automático en la nube y que ahora utilizan 100.000 clientes. Más cobertura de IA de lectura obligada Los clientes regionales de AWS se adaptan a un nuevo mundo de IA generativa Los clientes de AWS también se subieron a la ola de IA generativa en 2023. La startup local de IA generativa Leonardo.Ai, que permite a los usuarios generar imágenes y entrenar sus propios modelos personalizados , generó 700 millones de imágenes en el año hasta noviembre de 2023, o 4,5 millones de imágenes diarias (Figura A). Figura A: Con los servicios en la nube de AWS, la plataforma de inteligencia artificial generativa Leonardo.Ai está logrando un crecimiento explosivo en el volumen de imágenes que generan sus usuarios. Imagen: Leonardo.Ai Al escalar utilizando instancias Elastic Compute Cloud Inf2 de Amazon para la inferencia de IA generativa y para ejecutar varios modelos de lenguaje grandes, Leonardo.Ai también fue el primer equipo de Asia y el Pacífico en completar el programa acelerador de IA generativa de AWS para respaldar su crecimiento. Mientras tanto, la empresa de telecomunicaciones One New Zealand, con sede en Nueva Zelanda, comenzó a utilizar capacidades de inteligencia artificial generativa de AWS para ayudar a los agentes de su centro de contacto a comprender mejor por qué llaman los clientes y respaldar proactivamente la resolución de llamadas, lo que generó un aumento medido del 10 % en la confianza del cliente. Louise Stigwood, directora empresarial de AWS en Australia y Nueva Zelanda Los directores ejecutivos y juntas directivas australianas analizan la IA y la optimización de costos de la nube Louise Stigwood dijo que la IA generativa se convirtió en un tema para casi todos los directores ejecutivos y miembros de la junta directiva locales en 2023, mientras buscaban comprender las complejidades de la La tecnología y el papel que puede desempeñar en el cambio. Esto llevó a AWS a desarrollar cursos de formación para que los ejecutivos se pusieran al día. La optimización de costos siguió siendo otra prioridad en un entorno de costos limitados. Stigwood dijo que las organizaciones trabajaron con AWS para duplicar la modernización de los entornos de nube para reducir los costos, lo que ahorró millones en el transcurso del año pasado para clientes como NAB. Muchos clientes empresariales también aprovecharon sus ahorros para financiar la innovación. Un ejemplo fue el anuncio de la AFL de que Marvel Stadium se convertiría en el primer estadio en el hemisferio sur en introducir la tecnología Just Walk Out para compras sin pagar en los juegos. Las tecnologías de AWS que los profesionales de TI deberían tener en cuenta en 2024 Es probable que los avances de AWS en 2023 paguen dividendos a los clientes este año. Por ejemplo, las dos familias de chips de próxima generación (AWS Graviton4 y AWS Trainium2) admitirán cargas de trabajo en la nube, incluido el aprendizaje automático y la inteligencia artificial generativa, lo que ayudará a reducir los costos y aumentar el rendimiento. PREMIUM: Explore la evolución, las características, los inconvenientes y los beneficios de la IA generativa. Stigwood dijo que las nuevas herramientas para su oferta de AWS Supply Chain ayudarán a los clientes a rastrear y mejorar la sostenibilidad de la cadena de suministro. Las actualizaciones incluyen la capacidad de solicitar, recopilar y auditar datos de sostenibilidad de los proveedores, incluidos datos de emisiones de carbono de alcance 1, 2 y 3. Hay una serie de otras mejoras de AWS en 2023 que son relevantes para las empresas locales en 2024. El surgimiento de expertos organizacionales artificiales La síntesis de información organizacional se ha convertido en un caso de uso clave para la IA generativa en general. Stanic dijo que Amazon Q, el nuevo modelo de IA de Amazon creado para ayudar a las empresas a aprovechar sus datos patentados para la IA de forma segura, podría tener efectos innovadores a medida que su uso crezca este año (Figura B). Figura B: El asistente virtual de IA generativa Amazon Q fue presentado por el director ejecutivo de AWS, Adam Selipsky, en 2023. Imagen: AWS “Actuará como un experto en el negocio de un cliente”, dijo Stanic. “Ya tiene una fuerte integración con tecnologías existentes como Amazon Connect para centros de llamadas. Existe un gran interés en utilizar asistentes de IA generativa para ayudar a los agentes del centro de llamadas a brindar ayuda real a los clientes en tiempo real”. La democratización de la IA generativa para crear aplicaciones Las actualizaciones de Amazon Bedrock podrían facilitar que los desarrolladores que no son expertos en IA creen aplicaciones de IA generativa. Con 10.000 clientes, Stanic dijo que muchas empresas se encuentran ahora en la etapa de prueba de concepto con aplicaciones y pasarán a producción en los próximos meses. Por ejemplo, el cliente australiano Adore Beauty ha utilizado Bedrock para respaldar el análisis de las opiniones de los clientes para determinar qué productos tienen un buen rendimiento. La empresa de software de contabilidad Xero creó un asistente virtual para ayudar a incorporar a los clientes y responder sus preguntas con inteligencia artificial. Hacer de la IA responsable parte de la innovación organizacional Las discusiones con los clientes sobre cómo resolver un problema o hacer algo más rápido y mejor con la IA a menudo giran en torno a cuestiones de seguridad y de IA responsable, dijo Stanic. AWS busca integrar la seguridad de la IA en sus herramientas, como lo ha hecho con Guardrails para Amazon Bedrock. Guardrails puede ayudar a las empresas a evaluar las aportaciones de los usuarios y las respuestas del modelo básico en función de políticas específicas de casos de uso, proporcionando una capa adicional de salvaguardas responsables de la IA independientemente del modelo básico. Stanic dijo que puede ayudar a los clientes a implementar y evaluar modelos. El despegue de una nueva red de satélites de órbita baja El proyecto de satélite Low Earth Orbit de Amazon, en el que recientemente la compañía firmó un acuerdo con NTT Docomo en Japón para proporcionar redundancia para sus redes de comunicaciones, podría ayudar a las empresas de telecomunicaciones a ampliar las capacidades 5G o facilitar que AWS Comunicaciones de AWS fuera de la Internet pública. Según Stigwood, esto podría hacer que AWS trabaje con empresas de telecomunicaciones en Australia y Nueva Zelanda para ampliar las redes de comunicaciones. Organizaciones como mineras y otras en áreas regionales también podrían beneficiarse de las ventajas de más opciones de conectividad a través de los satélites LEO de Amazon. Se espera que las tendencias de la tecnología empresarial se aceleren en 2024. AWS espera que la IA generativa vuelva a ocupar un lugar central en 2024. Otras predicciones para los mercados de Australia y Nueva Zelanda de Stanic y Stigwood incluyen que las organizaciones locales se centrarán en plataformas de datos, migración a la nube y modernización. y diversidad de la industria. El surgimiento de la IA generativa de grado de producción Si bien 2023 estuvo dominado por la comprensión y la experimentación con modelos de IA generativa, Stanic espera que 2024 sea el año de la implementación de la IA generativa de grado de producción en la región, lo que podría marcar una gran diferencia para una variedad de verticales de negocios en el mercado local. VER: Australia ha estado adoptando aspectos de la IA generativa a lo largo de 2023 mientras intenta anticiparse a los riesgos. Stanic dijo que es probable que los empleados en Australia y Nueva Zelanda puedan aprovechar mejor las bases de conocimiento internas para encontrar información más rápida y fácilmente, mientras que las vidas de los desarrolladores mejorarán a través de compañeros de codificación como CodeWhisperer de AWS (Figura C). Figura C: CodeWhisperer de AWS apoya a los desarrolladores con productividad generando sugerencias de código que van desde fragmentos hasta funciones completas en tiempo real. Imagen: AWS Stanic agregó que las empresas australianas avanzarán hacia la transformación de las experiencias de sus clientes con IA generativa, incluso a través del popular caso de uso de asistente virtual para centros de llamadas. «Podemos esperar que esos casos de uso bastante viables ganen más tracción este año», dijo Stanic. Centrarse en plataformas de datos sólidas en la nube El éxito de la IA generativa dependerá en gran medida de los datos. Stanic dijo que las organizaciones no deben subestimar el impacto de los datos subyacentes y la plataforma de datos en los proyectos de IA, porque esto puede terminar haciendo o deshaciendo el éxito de la implementación de la IA generativa. «Creemos que veremos a los clientes duplicar su apuesta este año en la creación de plataformas de datos sólidas, escalables y de alto rendimiento en la nube», dijo Stanic. AWS está eliminando parte del trabajo pesado a través de Zero-ETL, que facilita el movimiento de datos punto a punto sin canalizaciones de datos ETL. «Esto puede reducir el tiempo de procesamiento de datos y hacer la vida de los ingenieros de datos mucho más fácil», dijo Stanic. «Respalda el papel fundamental de los datos para impulsar el éxito con la IA generativa». Migración y modernización continua de la nube La migración y la modernización en la nube es una tendencia que, según Stanic, continuará en Australia y Nueva Zelanda, independientemente de otras tendencias que puedan ir y venir. Dijo que las organizaciones quieren poder operar de manera más rentable y escalable, y la nube se lo permite. Esto se combinará con la optimización de los costos de la nube, después de que los costos de la nube se hayan disparado en los últimos años. Con más controles disponibles para la optimización de costos y soporte para hacerlo iterativo, AWS está trabajando con los clientes para redirigir los ahorros de costos de la nube hacia proyectos innovadores. Nuevas oportunidades para la diversidad de la industria tecnológica La llegada de compañeros de codificación como CodeWhisperer podría comenzar a cambiar la forma en que el mercado piensa sobre las tecnologías tradicionales y los roles de ingeniería de software, según Stigwood. Esto podría actuar como catalizador para una mayor diversidad en la industria tecnológica de Australasia. «Cuando hay diversidad en la mesa, hay mejores resultados, y eso es cada vez más un enfoque, particularmente para las empresas más grandes», dijo Stanic. «Este año, muchos han aprovechado nuestro programa Cloud Up For Her, que ayuda a mujeres de cualquier origen a adquirir fluidez tecnológica».
Intel y la firma de inversión global DigitalBridge Group han formado una empresa independiente de software de IA generativa, Articul8 AI, Inc. (Articul8); Intel anunció la nueva compañía el 3 de enero. Articul8 trabajará con Intel y brindará soluciones para organizaciones que deseen construir e implementar IA generativa. Producto y capacidades de Articul8 El producto de Articul8 es «una plataforma de software GenAI llave en mano que ofrece velocidad, seguridad y rentabilidad para ayudar a los clientes de grandes empresas a operacionalizar y escalar la IA», según el comunicado de prensa. Específicamente, Articul8 proporciona infraestructura, una capa de datos administrada, grandes modelos de lenguaje y API para IA generativa. Algunos casos de uso podrían ser: Implementar IA generativa para tareas de ciberseguridad, como la detección de amenazas. Obtener conocimientos sobre datos y generar diseños en ingeniería. Uso de datos de IA en la fabricación de semiconductores. Mejorar las operaciones de telecomunicaciones. Identificar tendencias del mercado y generar insights en finanzas. VER: Esto es lo que establece la Ley de IA de la UE para la industria de la IA generativa (TechRepublic) Más cobertura de IA de lectura obligada El software de Articul8 se ejecuta en procesadores Intel Xeon Scalable y aceleradores Intel Gaudi, pero también puede funcionar en otras infraestructuras. Para brindar flexibilidad a los usuarios empresariales, Articul8 puede trabajar con Intel, AWS, Google Cloud, Microsoft Azure y NVIDIA. Articul8 sigue los pasos de las tendencias actuales de IA empresarial al ofrecer implementación local y asegurarse de que sus capacidades de IA mantengan los datos de la empresa, los datos de los clientes, la capacitación y la inferencia dentro de un perímetro de seguridad empresarial. Está diseñado para organizaciones con altos niveles de seguridad y conocimiento de dominio especializado. Los orígenes de Articul8 Articul8 surgió de Intel y utiliza IP y tecnología desarrollada allí. El director ejecutivo de Articul8 es Arun Subramaniyan, quien anteriormente se desempeñó como vicepresidente y gerente general en el centro de datos y el grupo de inteligencia artificial de Intel. Las dos empresas trabajarán mano a mano y colaborarán mientras operan de forma independiente. Intel financió Articul8, al igual que DigitalBridge Ventures y otros inversores de riesgo. «Con su profundo conocimiento del dominio de IA y HPC y sus implementaciones de GenAI de nivel empresarial, Articul8 está bien posicionado para ofrecer resultados comerciales tangibles para Intel y nuestro ecosistema más amplio de clientes y socios», escribió el CEO de Intel, Pat Gelsinger, en el comunicado de prensa. «A medida que Intel acelera la IA en todas partes, esperamos continuar nuestra colaboración con Articul8». El proyecto que se convertiría en Articul8 ha estado incubando durante dos años en Intel y fue utilizado en Boston Consulting Group, dijo Rich Lesser, presidente global de Boston Consulting Group, en un comunicado de prensa. «Desde entonces, hemos implementado productos Articul8 para múltiples clientes que buscan plataformas listas para producción con un tiempo de comercialización rápido», dijo Lesser. «Estamos entusiasmados con la importante oportunidad que se presenta ante Articul8, que se ve reforzada por esta inversión para acelerar su crecimiento e innovación», dijo Subramaniyan en un correo electrónico a TechRepublic. «Articul8 tiene una importante oportunidad por delante y esta transacción permite a Intel continuar participando en cualquier actividad futura de creación de valor de Articul8». Competidores de Articul8 Otras empresas que trabajan en proporcionar capacidades de implementación y desarrollo de IA generativa completa para empresas incluyen Intel, IBM, HPE, AWS, Dell, Databricks y Google. A medida que más y más empresas buscan casos de uso para la IA generativa, más proveedores de IA de generación están trabajando en la creación de un servicio completo que ofrezca seguridad a nivel empresarial en lugar de los modelos y casos de uso más comerciales y capacitados públicamente.
En la campaña activa Elektra-Leak, los atacantes buscan credenciales de Amazon IAM dentro de los repositorios públicos de GitHub antes de usarlas para la criptominería. Obtenga consejos para mitigar esta amenaza a la ciberseguridad. Imagen: WhataWin Una nueva investigación de la Unidad 42 de Palo Alto Networks expone una campaña de ataque activo en la que un actor de amenazas busca credenciales de Amazon IAM en tiempo real en repositorios de GitHub y comienza a usarlas menos de cinco minutos después. La carga útil final ejecuta software de criptominería Monero personalizado en máquinas virtuales implementadas en las instancias de Amazon. Saltar a: Credenciales de IAM expuestas en GitHub GitHub ofrece a sus usuarios muchas funciones para manejar su código dentro de la plataforma. Una de estas características consiste en proporcionar una lista de todos los repositorios públicos a cualquier usuario que la solicite, lo que ayuda a los desarrolladores a rastrear fácilmente varios desarrollos que les interesan. El seguimiento se realiza en tiempo real y permite que cualquiera, incluidos los actores de amenazas, vea nuevos repositorios. tan pronto como sean enviados a GitHub. VER: Las 8 mejores soluciones de gestión de identidad y acceso (IAM) para 2023 (TechRepublic) Los investigadores de la Unidad 42 de Palo Alto Networks informan que es posible encontrar credenciales de gestión de identidad y acceso de Amazon Web Services dentro de los repositorios públicos de GitHub y que estas credenciales se buscan activamente por los ciberdelincuentes. Para analizar el riesgo en mayor profundidad, los investigadores decidieron almacenar las credenciales de IAM en GitHub y verificar toda la actividad a su alrededor. Esa prueba de honeypot reveló que las claves de AWS filtradas que estaban codificadas en base64 y almacenadas en GitHub no fueron encontradas ni utilizadas por los actores de amenazas, que solo obtuvieron claves de AWS de texto sin cifrar ocultas detrás de una confirmación anterior en un archivo aleatorio. El honeypot permitió a los investigadores William Gamazo y Nathaniel Quist detectar una campaña de ataque particular que comenzó cinco minutos después de que se colocaron las credenciales en GitHub. Detalles técnicos sobre esta campaña de ataque La campaña, denominada EleKtra-Leak por los investigadores en referencia a la ninfa de la nube griega Electra y el uso de Lek como los primeros 3 caracteres en las contraseñas utilizadas por el actor de amenazas, ha estado activa desde al menos diciembre. 2020, según la Unidad 42. Una vez que se encuentran las credenciales de IAM, el atacante realiza una serie de acciones de reconocimiento para saber más sobre la cuenta de AWS a la que se accede (Figura A). Figura A Acciones de reconocimiento ejecutadas por el actor de amenazas en la cuenta de AWS. Imagen: Palo Alto Networks Una vez realizadas esas acciones, el actor de amenazas crea nuevos grupos de seguridad de AWS antes de lanzar varias instancias de Amazon Elastic Compute Cloud por región en cualquier región de AWS accesible. Gamazo y Quist pudieron observar más de 400 llamadas API en siete minutos, todas realizadas a través de una conexión VPN, lo que demuestra que el actor ha automatizado el ataque contra esos entornos de cuentas de AWS. Cobertura de seguridad de lectura obligada El actor de amenazas apuntó a máquinas virtuales en la nube de gran formato para realizar sus operaciones, ya que tienen mayor poder de procesamiento, que es lo que buscan los atacantes cuando ejecutan operaciones de criptominería. El actor de amenazas también eligió imágenes privadas para Amazon Machine Images; algunas de esas imágenes eran distribuciones antiguas de Linux Ubuntu, lo que llevó a los investigadores a creer que la operación se remonta al menos a 2020. El actor de amenazas también pareció bloquear cuentas de AWS que habitualmente exponen credenciales de IAM, ya que este tipo de comportamiento podría originarse en investigadores de amenazas o sistemas de honeypot. El objetivo de esta campaña de ataque: Criptominería. Una vez que se realiza todo el reconocimiento y se inician las máquinas virtuales, se entrega una carga útil, que se descarga desde Google Drive. La carga útil, cifrada en el almacenamiento de Google, se descifra al descargarla. La Unidad 42 afirma que la carga útil es una conocida herramienta de criptominería aparentemente utilizada en 2021 y reportada por Intezer, una empresa especializada en plataformas autónomas de sistemas operativos de seguridad. En la campaña de ataque reportada, Intezer indicó que un actor de amenazas había accedido a instancias de Docker expuestas en Internet para instalar software de criptominería para extraer la criptomoneda Monero. Ese software de criptominería personalizado es el mismo que se utiliza en la nueva campaña expuesta por Palo Alto Networks. El software está configurado para utilizar el grupo de minería SupportXMR. Los grupos de minería permiten que varias personas agreguen su tiempo de computación al mismo espacio de trabajo, lo que aumenta sus posibilidades de ganar más criptomonedas. Como afirmó Palo Alto Networks, el servicio SupportXMR solo proporciona estadísticas por tiempo limitado, por lo que los investigadores obtuvieron las estadísticas de minería durante varias semanas, ya que se usó la misma billetera para las operaciones de minería de AWS (Figura B). Figura B Estadísticas de SupportXMR asociadas con la billetera del actor de la amenaza. Imagen: Palo Alto Networks Entre el 30 de agosto de 2023 y el 6 de octubre de 2023, aparecieron un total de 474 mineros únicos, siendo cada uno de ellos una instancia única de Amazon EC2. Aún no es posible obtener una estimación de la ganancia financiera generada por el actor de la amenaza, ya que Monero incluye controles de privacidad que limitan el seguimiento de este tipo de datos. Medidas automatizadas de GitHub para detectar secretos GitHub escanea automáticamente en busca de secretos en los archivos almacenados en la plataforma y notifica a los proveedores de servicios sobre secretos filtrados en GitHub. Durante su investigación, Gamazo y Quist notaron los secretos que estaban almacenando intencionalmente en GitHub, ya que GitHub detectó con éxito los datos del honeypot para su investigación y los informó a Amazon, quien a su vez aplicó automáticamente en cuestión de minutos una política de cuarentena que evita que los atacantes realicen operaciones como como acceder a AWS IAM, EC2, S3, Lambda y Lightsail. Durante el proceso de investigación, la Unidad 42 dejó la política de cuarentena vigente y estudió pasivamente las pruebas de las cuentas realizadas por los atacantes; luego, se abandonó la política para estudiar toda la cadena de ataque. Los investigadores escriben que «creen que el actor de la amenaza podría encontrar claves de AWS expuestas que no se detectan automáticamente» y que, según su evidencia, los atacantes probablemente lo hicieron, ya que podían ejecutar el ataque sin ninguna política que interfiriera. También afirman que “incluso cuando GitHub y AWS están coordinados para implementar un cierto nivel de protección cuando se filtran claves de AWS, no todos los casos están cubiertos” y que otras víctimas potenciales de este actor de amenazas podrían haber sido atacadas de una manera diferente. Cómo mitigar este riesgo de ciberseguridad Las credenciales de IAM nunca deben almacenarse en GitHub ni en ningún otro servicio o almacenamiento en línea. Las credenciales de IAM expuestas deben eliminarse de los repositorios y se deben generar nuevas credenciales de IAM para reemplazar las filtradas. Las empresas deben utilizar credenciales de corta duración para realizar cualquier funcionalidad dinámica dentro de un entorno de producción. Los equipos de seguridad deben monitorear los repositorios de GitHub utilizados por sus organizaciones. Se debe auditar los eventos de clonación que ocurren en esos repositorios porque es necesario que los actores de amenazas clonen primero los repositorios para ver su contenido. Esa característica está disponible para todas las cuentas de GitHub Enterprise. También se debe realizar constantemente un escaneo personalizado y dedicado en busca de secretos en los repositorios. Herramientas como Trufflehog podrían ayudar en esa tarea. Si no es necesario compartir los repositorios de la organización públicamente, los repositorios privados de GitHub deben ser utilizados y solo el personal de la organización debe acceder a ellos. El acceso a los repositorios privados de GitHub debe protegerse mediante autenticación multifactor para evitar que un atacante acceda a ellos con credenciales de inicio de sesión filtradas. Divulgación: trabajo para Trend Micro, pero las opiniones expresadas en este artículo son mías.