Todo lo que necesitas saber sobre tecnología

Etiqueta: AWS

Las 5 mejores certificaciones de ingeniería rápida que vale la pena obtener

Destacado del curso: Google AI Essentials de Coursera Nuestra evaluación: Lo mejor para principiantes Google AI Essentials de Coursera se destaca como un curso flexible y apto para principiantes que muestra cómo utilizar la IA generativa para acelerar las tareas laborales cotidianas, como escribir correos electrónicos, resumir reuniones o resolver problemas matemáticos. Aprenda técnicas de ingeniería rápida, como indicaciones de pocos disparos. Identifique los posibles sesgos de la IA generativa y vea cómo reducir el daño. Determine si la IA generativa es adecuada para las tareas que necesita realizar. Planifique con anticipación cómo mantenerse al día con el campo de rápido desarrollo de IA generativa. A principios de este año, el director ejecutivo de NVIDIA, Jensen Huang, predijo que la IA generativa está «cerrando la brecha tecnológica» en parte debido a la ingeniería rápida o la capacidad de obtener información y acciones del modelo de IA a través del lenguaje natural. La programación sigue siendo una habilidad importante, dijo, pero «todos necesitamos aprender a activar las IA». ¿Qué es la ingeniería rápida? Dado que la IA generativa interpreta el lenguaje natural, la ingeniería rápida es el proceso de estructurar y elegir las palabras adecuadas para que las interprete el modelo. La ingeniería de mensajes puede ser engañosamente simple y a veces implica decirle directamente al modelo de IA para qué audiencia debe escribir o enfatizar cuándo un elemento del mensaje es «realmente importante». La ingeniería rápida puede parecer misteriosa, pero a menudo no hay mucho de lo que normalmente se considera ingeniería involucrada. Sin embargo, la ingeniería rápida se cruza con muchos otros elementos del trabajo con IA generativa, todos los cuales implican mucho que explorar y aprender. VER: Hemos seleccionado los mejores cursos para aprender sobre IA en general. Si bien hay muchos cursos sobre ingeniería rápida, hemos elegido módulos que específicamente dan como resultado certificados de finalización. Puede utilizar estas certificaciones para trabajar hacia sus objetivos profesionales. Se pueden incluir certificaciones en su currículum para mostrar iniciativa y educación continua. Basamos nuestras selecciones en reseñas, sentimiento de la comunidad, la profundidad y variedad de los temas ofrecidos y la practicidad de la información. Otros buenos recursos para explorar la ingeniería rápida, que pueden incluir o no opciones para recibir una certificación, son Learn Prompting y DeepLearning.AI. Descargo de responsabilidad: este artículo está patrocinado por Coursera. Las mejores certificaciones de ingeniería rápida: Tabla comparativa CostoDuraciónNivel de habilidad Google AI Essentials (Coursera) $ 49- $ 79 por mes con una prueba gratuita de 7 días. 9 horas Principiante The Complete Prompt Engineering for AI Bootcamp (2024) (Udemy) $ 109,99 Aproximadamente 17 horas IA generativa intermedia para Especialización en ingenieros de datos (Coursera) $ 49- $ 79 por mes con una prueba gratuita de 7 días. 25 horas Especialización intermedia en ingeniería rápida (Coursera) $ 49- $ 79 por mes con una prueba gratuita de 7 días. 36 horas IA generativa intermedia con LLM (Coursera) $ 49 -$ 79 por mes con una prueba gratuita de 7 días. 15 horas Google AI Essentials intermedio: ideal para principiantes La fecha de inscripción siempre será la fecha actual. Imagen: Coursera/Captura de pantalla de TechRepublic Uno de los elementos que cubre este curso es «Escribir indicaciones claras y específicas para obtener el resultado que desea», pero este curso también es una buena descripción general de la IA generativa y da como resultado un certificado de finalización. Este curso y certificación se produjeron como parte de Crecer con Google, una iniciativa de capacitación laboral; por lo tanto, puede estar seguro de que el control de calidad de Google se aplica al material. Este curso consta de estos módulos: Introducción a la IA. Maximice la productividad con herramientas de inteligencia artificial. Descubra el arte de la ingeniería rápida. Utilice la IA de forma responsable. Manténgase a la vanguardia de la curva de la IA. Precios Esta certificación requiere una cuenta de Coursera, que para un individuo cuesta entre $49 y $79 por mes con una prueba gratuita de 7 días, según el curso y el plan. Duración Coursera afirma que el curso tarda 9 horas en completarse. ProsCons Aprobado por Google. No toma mucho tiempo completarlo. Cubre una amplia gama de temas. No se enfoca solo en ingeniería rápida. No es muy técnico. Requisitos previos Este curso no tiene requisitos previos. The Complete Prompt Engineering for AI Bootcamp (2024): lo mejor para profesionales establecidos. Udemy ocasionalmente tiene ventas; el precio de venta que aparece en la foto finaliza el 27 de junio. Imagen: Udemy/Captura de pantalla de TechRepublic Complete Prompt Engineering for AI Bootcamp (2024) es uno de los cursos de ingeniería rápida más actualizados que encontramos en Udemy. Los instructores lo actualizaron por última vez en mayo de 2024, agregando información sobre la aplicación de escritorio ChatGPT y otra información. Este es un curso práctico para programadores: incluye cómo usar Python, Langchain, el administrador de difusión estable AUTOMATIC1111 para la generación de imágenes y más para aprovechar al máximo la IA generativa, así como instrucciones sobre cómo perfeccionar las indicaciones, enseñar un IA para desempeñar un papel y más. Precios Este curso normalmente cuesta $109,99, pero a veces estará en oferta. Duración Este curso incluye 17 horas de video, así como tareas que deberá completar a su propio ritmo. ProsCons Completo y práctico. Los materiales del curso se actualizan con frecuencia. Los instructores trabajan en el campo de la ingeniería de indicaciones. Se incluyen listas de indicaciones de ejemplo en los materiales del curso. Algunos revisores dicen que el contenido puede ser repetitivo. Relativamente costoso. Requisitos previos Para realizar este curso, debe poder leer y escribir en Python. Especialización en IA generativa para ingenieros de datos: lo mejor para ingenieros de datos. Esta certificación consta de tres cursos, todos administrados por profesionales de IBM. Imagen: Coursera/Captura de pantalla de TechRepublic Esta especialización da como resultado una certificación que demuestra que ha completado tres cursos: IA generativa: introducciones y aplicaciones. IA generativa: conceptos básicos de ingeniería rápida. IA generativa: mejore su carrera en ingeniería de datos. Todos los cursos fueron desarrollados por IBM. Recomendamos los tres cursos para aprovechar al máximo la certificación, pero usted puede elegir qué tema y período de tiempo le convienen mejor. Precios Se puede acceder a los tres cursos a través de una suscripción a Coursera por $49-$79 por mes con una prueba gratuita de 7 días. Duración Los materiales para esta certificación abarcan 25 horas en total. ProsCons Impartido por profesionales de IBM. Manténgase actualizado sobre las herramientas utilizadas en ingeniería rápida. Cubre la IA generativa desde una perspectiva de ingeniería de datos, lo cual es bueno para agregar a un conjunto de habilidades existente. Puede ser demasiado general para personas que solo buscan ingeniería rápida. o que no estén interesados ​​en la ingeniería de datos. Requisitos previos Las personas que toman la sección de ingeniería de datos deben tener alguna experiencia en ingeniería de datos. Las introducciones a la IA generativa y la ingeniería rápida no requieren requisitos previos ni experiencia. Especialización en ingeniería rápida: lo mejor para las personas que trabajan con ChatGPT. Completar esta especialización requiere tomar tres cursos: Ingeniería rápida para ChatGPT, análisis de datos avanzado de ChatGPT e IA generativa confiable. Imagen: Coursera/Captura de pantalla de TechRepublic La especialización en ingeniería rápida de la Universidad de Vanderbilt en Coursera incluye tres cursos: Ingeniería rápida para ChatGPT. Análisis de datos avanzado de ChatGPT. IA generativa confiable. Elegimos esta especialización porque se centra en los aspectos específicos de la ingeniería rápida con una aplicación de IA popular, ChatGPT, pero también cubre cómo producir resultados lo más precisos posible a partir de la IA generativa en general. Precios Se puede acceder a los tres cursos a través de una suscripción a Coursera por $49-$79 por mes con una prueba gratuita de 7 días. Duración Los materiales para esta certificación abarcan 36 horas en total. ProsCons Incluye secciones sobre la confiabilidad de la IA y alucinaciones. Incluye tareas prácticas. Cubre principalmente ChatGPT. Parte del contenido entre cursos puede ser repetitivo. Es posible que no se haya actualizado recientemente o en profundidad (todavía se refiere a Google Gemini como Bard). Requisitos previos Para la parte de Análisis de datos avanzado de ChatGPT, se requiere una suscripción a ChatGPT+ y acceso a Code Interpreter. Si está tomando el curso de IA generativa confiable, debe estar familiarizado con otras aplicaciones de IA generativa como Google Gemini o Claude de Anthropic. IA generativa con LLM: lo mejor para las personas que usan AWS Este curso fue creado en parte por AWS. Imagen: DeepLearning.AI/Captura de pantalla de TechRepublic DeepLearning.ai fue fundada por Andrew Ng, quien también cofundó Coursera, y ofrece una amplia variedad de cursos gratuitos, algunos de los cuales, como este, están organizados conjuntamente en Coursera. Este curso se centra en el uso de IA con AWS. Incluye “técnicas avanzadas de indicación” y parámetros de configuración para la IA generativa. Puede ser especialmente adecuado si ya conoce AWS y desea crear e implementar IA con él. Precios Una suscripción a Coursera cuesta entre 49 y 79 dólares al mes con una prueba gratuita de 7 días. Duración 15 horas. ProsCons Por lo general, se considera que los instructores de DeepLearning.AI brindan información práctica sin tonterías. Se centra en habilidades prácticas específicas que pueden ser útiles si usa AWS en su trabajo. Algunas revisiones señalan que las secciones de «laboratorio» utilizan código completamente prediseñado y no No requiere que el alumno construya los suyos propios. Requisitos previos Este curso es apropiado para personas que ya trabajan como científicos de datos, ingenieros de investigación o ingenieros de aprendizaje automático. Debes tener algo de experiencia trabajando en Python si quieres realizar este curso. Mejor certificación general Si bien la certificación adecuada para usted dependerá de su experiencia y objetivos específicos, nuestra elección para la mejor certificación general es The Complete Prompt Engineering for AI Bootcamp porque cubre una amplia gama de temas y contiene información actualizada.

AWS ofrece cursos y certificaciones gratuitos de inteligencia artificial y aprendizaje automático

A medida que la inteligencia artificial se filtra en gran parte del software disponible hoy en día, los profesionales de la tecnología tienen la oportunidad de avanzar hacia carreras lucrativas y ampliar sus habilidades en IA. En los últimos meses, AWS ha alentado a las personas a mejorar sus habilidades en IA con una amplia selección de cursos y certificaciones. El año pasado, Amazon se asoció con Code.org para el compromiso “AI Ready”, que es un conjunto de cursos de IA generativa para enseñar habilidades de inteligencia artificial generativa. En el transcurso de este compromiso, Amazon quiere brindar a dos millones de personas en todo el mundo las habilidades necesarias para carreras lucrativas generativas centradas en la IA para 2025. En junio, AWS anunció que abrirá las puertas de dos nuevas certificaciones a partir de agosto. Además, Amazon ofrece capacitación en habilidades de computación en la nube y otros cursos gratuitos en línea. AWS lanzará dos nuevas certificaciones de IA en agosto. Una certificación, AWS Certified AI Practitioner, cubre los fundamentos de la inteligencia artificial y el aprendizaje automático, consideraciones de diseño, ajuste de modelos y más. Dado que este es un curso de AWS, debe tener algo de experiencia con AWS antes de comenzar; sin embargo, no es necesario haber creado soluciones de IA/ML en AWS antes. Esta certificación cuesta $75 y concluye con un examen de 120 minutos. La inscripción comienza el 21 de agosto. La segunda certificación, Ingeniero asociado de aprendizaje automático certificado por AWS, está diseñada para personas que ya tienen aproximadamente un año de experiencia en el diseño de IA/ML en AWS. Esta certificación enseña habilidades técnicas relacionadas con las cargas de trabajo de ML. Cubre ingeniería de funciones, capacitación de modelos, integración e implementación de modelos, seguridad y más. Ingeniero de aprendizaje automático certificado por AWS: asociado se lanzará en versión beta, lo que significa que las lecciones de la primera ronda de participantes se pueden utilizar para crear una versión estándar del examen más adelante. La versión beta está abierta para inscripciones el 13 de agosto. Costará $75 e incluirá un examen de 170 minutos. Luego, las certificaciones se pueden agregar a un currículum para demostrar que AWS ha verificado su conocimiento de IA. Cursos gratuitos de formación en IA generativa para profesionales y principiantes AWS ofrece una variedad de cursos de formación gratuitos o de bajo costo para facilitar el uso de su plataforma. Los siguientes cursos de capacitación en IA generativa están disponibles de forma gratuita en Amazon a través de AWS Skill Builder para desarrolladores y audiencias técnicas: Foundations of Prompt Engineering. Aprendizaje automático de código bajo en AWS. Creación de modelos de lenguaje en AWS. Introducción a Amazon Transcribe. Creación de aplicaciones de IA generativa con Amazon Bedrock. El siguiente curso de capacitación en IA generativa está disponible de forma gratuita en Amazon para principiantes y estudiantes: Plan de aprendizaje de IA generativa para tomadores de decisiones a través de AWS Skill Builder. Los empleadores buscan habilidades de IA Según Indeed, las habilidades de IA generativa son una de las habilidades tecnológicas mejor pagadas que buscan los empleadores en febrero de 2024. El aprendizaje profundo, un tipo de aprendizaje automático, también figura en la lista. Salesforce India señaló en marzo de 2024 que la IA crea nuevos tipos de trabajos tecnológicos, que incluyen: Ingeniería rápida. Entrenamiento de IA. Análisis de los sentimientos. Y más. VER: Las habilidades de IA generativa pueden generar los salarios más altos en la industria tecnológica actual, según Indeed. (TechRepublic) Más cobertura de IA de lectura obligada Los cursos AI Ready se suman a la biblioteca existente de recursos de IA y nube. Estos cursos se suman a las clases gratuitas de computación en la nube existentes de Amazon. Amazon tiene el objetivo de brindar a 29 millones de personas las habilidades adecuadas para carreras en computación en la nube para 2025. Amazon ofrece más de 100 cursos de capacitación gratuitos y de bajo costo y otros recursos sobre inteligencia artificial, aprendizaje automático e inteligencia artificial generativa a través de AWS Skill Builder y AWS Educate. Tomar algunos de estos cursos junto con la capacitación en IA generativa podría ampliar la comprensión de cómo funcionan juntas las diferentes capacidades de AWS y Amazon, así como contextualizar sus lugares en el mundo más amplio de las tecnologías de IA y ML. Este artículo ha sido actualizado desde su publicación inicial.

Los chips de silicio personalizados de AWS son una señal de lo que viene a la computación en la nube de APAC

El aumento de la informática con IA ha provocado retrasos en el suministro de chips con capacidad para IA, ya que la demanda ha superado a la oferta. Los gigantes mundiales Microsoft, Google y AWS están aumentando la producción de silicio personalizado para reducir la dependencia de los proveedores dominantes de GPU, NVIDIA y AMD. Como resultado, es posible que las empresas de APAC pronto se encuentren utilizando una gama cada vez mayor de tipos de chips en los centros de datos en la nube. Los chips que elijan dependerán de la potencia informática y la velocidad requeridas para las diferentes cargas de trabajo de aplicaciones, el costo y las relaciones con los proveedores de la nube. Los principales proveedores de nube están invirtiendo en chips de silicio personalizados. Las tareas informáticas intensivas, como entrenar un modelo de lenguaje grande de IA, requieren enormes cantidades de potencia informática. A medida que ha aumentado la demanda de informática con IA, los chips semiconductores súper avanzados de empresas como NVIDIA y AMD se han vuelto muy caros y difíciles de asegurar. Los proveedores dominantes de nube a hiperescala han respondido acelerando la producción de chips de silicio personalizados en 2023 y 2024. Los programas reducirán la dependencia de los proveedores dominantes, para que puedan ofrecer servicios informáticos de IA a clientes en todo el mundo y en APAC. Google Google presentó sus primeras CPU personalizadas basadas en ARM con el lanzamiento del procesador Axion durante su conferencia Cloud Next en abril de 2024. Sobre la base del trabajo de silicio personalizado durante la última década, el paso a la producción de sus propias CPU está diseñado para admitir una variedad de informática de propósito general, incluido el entrenamiento de IA basado en CPU. Para los clientes de la nube de Google en APAC, se espera que el chip mejore las capacidades de inteligencia artificial de Google dentro de su centro de datos y estará disponible para los clientes de Google Cloud más adelante en 2024. Microsoft Microsoft, de la misma manera, ha presentado su primer acelerador interno personalizado optimizado. para tareas de IA e IA generativa, a las que ha denominado Azure Maia 100 AI Accelerator. A esto se une su propia CPU basada en ARM, la Cobalt 100, ambas anunciadas formalmente en Microsoft Ignite en noviembre de 2023. El silicio personalizado para IA de la empresa ya se ha utilizado para tareas como ejecutar el modelo de lenguaje grande ChatGPT 3.5 de OpenAI. El gigante tecnológico mundial dijo que esperaba una implementación más amplia en los centros de datos en la nube de Azure para los clientes a partir de 2024. La inversión de AWS en chips de silicio personalizados se remonta a 2009. La empresa ha lanzado cuatro generaciones de procesadores de CPU Graviton, que ya se han implementado. en centros de datos en todo el mundo, incluso en APAC; Los procesadores fueron diseñados para aumentar el precio y el rendimiento de las cargas de trabajo en la nube. A ellos se han sumado dos generaciones de Inferentia para aprendizaje profundo e inferencia de IA, y dos generaciones de Trainium para entrenar modelos de IA con más de 100 mil millones de parámetros. Lo que está de moda en TechRepublic AWS habla sobre la elección de silicio para los clientes de la nube de APAC En una reciente Cumbre de AWS celebrada en Australia, Dave Brown, vicepresidente de AWS Compute & Networking Services, dijo a TechRepublic que la razón del proveedor de la nube para diseñar silicio personalizado era brindar a los clientes opciones y mejorar el “rendimiento de precios” de la computación disponible. “Ha sido muy importante ofrecer opciones”, dijo Brown. “Nuestros clientes pueden encontrar los procesadores y aceleradores que mejor se adapten a su carga de trabajo. Y al producir nuestro propio silicio personalizado, podemos ofrecerles más computación a un precio más bajo”, añadió. NVIDIA, AMD e Intel entre los proveedores de chips de AWS AWS tiene relaciones de larga data con los principales proveedores de chips semiconductores. Por ejemplo, la relación de AWS con NVIDIA, el actor ahora dominante en IA, se remonta a 13 años, mientras que Intel, que lanzó aceleradores Gaudí para IA, ha sido un proveedor de semiconductores desde los inicios del proveedor de la nube. AWS ha estado ofreciendo chips de AMD en centros de datos desde 2018. La opción de silicio personalizado está en demanda debido a la presión de costos. Brown dijo que la fiebre de optimización de costos que se ha apoderado de las organizaciones durante los últimos dos años a medida que la economía global se ha desacelerado ha hecho que los clientes se trasladen a AWS Graviton. en todas las regiones, incluida APAC. Dijo que los chips han sido ampliamente adoptados por el mercado (por más de 50.000 clientes en todo el mundo), incluidos los 100 principales clientes del hiperescalador. «Las instituciones más grandes se están trasladando a Graviton debido a los beneficios de rendimiento y al ahorro de costos», afirmó. VER: Las herramientas de optimización de costos de la nube no son suficientes para controlar el gasto en la nube. Empresas surcoreanas y australianas entre los usuarios La amplia implementación de silicio AWS personalizado está haciendo que los clientes de APAC utilicen estas opciones. Leonardo.Ai: Leonardo.Ai, la startup de generación de imágenes de hipercrecimiento con sede en Australia, ha utilizado chips Inferentia y Trainium en el entrenamiento y la inferencia de modelos generativos de IA. Brown dijo que habían visto una reducción del 60 % en los costos de inferencia y una mejora de la latencia del 55 %. Kakaopay Securities: La institución financiera surcoreana Kakaopay Securities ha estado «utilizando Graviton a lo grande», dijo Brown. Esto ha permitido al actor bancario lograr una reducción del 20% en los costos operativos y una mejora del 30% en el desempeño, afirmó Brown. Ventajas del silicio personalizado para los clientes empresariales de la nube Los clientes empresariales en APAC podrían beneficiarse de una gama cada vez mayor de opciones informáticas, ya sea que se mida por el rendimiento, el costo o la idoneidad para diferentes cargas de trabajo en la nube. Las opciones de silicio personalizadas también podrían ayudar a las organizaciones a alcanzar los objetivos de sostenibilidad. Resultados mejorados de rendimiento y latencia La competencia proporcionada por los proveedores de la nube, junto con los proveedores de chips, podría impulsar avances en el rendimiento de los chips, ya sea en la categoría de computación de alto rendimiento para el entrenamiento de modelos de IA o en la innovación para la inferencia, donde la latencia es un gran factor. consideración. Potencial para una mayor optimización de los costos de la nube La optimización de los costos de la nube ha sido un problema importante para las empresas, ya que la expansión de las cargas de trabajo en la nube ha llevado a los clientes a aumentar los costos. Más opciones de hardware brindan a los clientes más opciones para reducir los costos generales de la nube, ya que pueden elegir con mayor criterio la computación adecuada. Capacidad de hacer coincidir las cargas de trabajo de computación con las aplicaciones Una gama cada vez mayor de chips de silicio personalizados dentro de los servicios en la nube permitirá a las empresas adaptar mejor sus cargas de trabajo de aplicaciones a las características específicas del hardware subyacente, garantizando que puedan utilizar el silicio más apropiado para los casos de uso que persiguen. . Mejor sostenibilidad mediante menos energía Se prevé que la sostenibilidad se convierta en uno de los cinco factores principales para los clientes que contraten proveedores de nube para 2028. Los proveedores están respondiendo: por ejemplo, AWS dijo que las emisiones de carbono se pueden reducir drásticamente utilizando chips Graviton4, que son un 60 % más eficientes. El silicio personalizado ayudará a mejorar la sostenibilidad general de la nube.

El chip Qualcomm AI para realidad virtual podría competir con Apple

En CES 2024 en Las Vegas, Qualcomm reveló las capacidades de IA en el dispositivo del chip Snapdragon XR2+ Gen 2 para auriculares de realidad virtual y mixta. Durante un discurso de apertura el 10 de enero, el presidente y director ejecutivo de Qualcomm, Cristiano Amon, habló sobre los casos de uso empresarial de la realidad virtual, incluido el suministro de entornos digitales para la capacitación. Sugirió tres preguntas que la realidad virtual y la resonancia magnética podrían responder para las empresas: “¿Cómo se capacita a las personas? ¿Cómo te sumerges de lleno en ese entorno digital? ¿Cómo se desarrollan las comunicaciones? Además, Amon habló sobre sus predicciones para el futuro de los teléfonos mejorados con IA. Nota: Este artículo se actualizó para reflejar el discurso de apertura de Qualcomm del 10 de enero. TechRepublic cubre CES 2024 de forma remota. Los chips Snapdragon XR2+ Gen 2 mejoran las reuniones de realidad virtual y mixta. El Snapdragon XR2+ Gen 2 es la continuación de la plataforma Snapdragon XR2 Gen 2 para IA, realidad virtual y realidad mixta. El Snapdragon XR2+ Gen 2 ofrece lo siguiente: resolución de 4,3K por 4,3K por ojo. 90 fotogramas por segundo. Admite 12 o más cámaras simultáneas para seguimiento de movimiento Conectividad Wi-Fi 7, Wi-Fi 6E, Bluetooth 5.3 y Bluetooth 5.2. El Snapdragon XR2+ Gen 2 tiene una frecuencia de GPU más alta en un 15 % y una frecuencia de CPU en un 20 % en comparación con el Snapdragon XR2 Gen 2. Eso ayuda al Snapdragon XR2+ Gen 2 a proporcionar “pantallas a escala de habitación, superposiciones de tamaño real y escritorios virtuales” más fluidos. dijo Hugo Swart, vicepresidente y director general de XR, Qualcomm Technologies, Inc., en un comunicado de prensa. VER: En más noticias de CES 2024, HP presentó sus computadoras portátiles Spectre x360 16 2 en 1 y Spectre x360 14 2 en 1 capaces de ejecutar cargas de trabajo de IA locales. (TechRepublic) «Nuestro trabajo era crear un motor informático que pudiera hacer que esa tecnología (IA) se ejecutara de manera generalizada», dijo Amon durante el discurso de apertura de Qualcomm en CES. “Estamos en un punto en el que esas capacidades (de IA) en los procesadores y semiconductores están disponibles. El siguiente paso es desarrollar esos casos de uso y aplicaciones”. Para las empresas y los empleados, eso significa escritorios virtuales, reuniones virtuales y demostraciones virtuales más eficientes. Tenga en cuenta que esto no significa necesariamente que la IA generativa se ejecute en unos auriculares; en cambio, el rendimiento de la IA de un solo chip ayuda a realizar un seguimiento de todos los datos necesarios para fusionar imágenes digitales y físicas. «La computación espacial será otra plataforma informática que eventualmente alcanzará una gran escala», dijo Amon durante la conferencia magistral. Qualcomm, que compite con Apple, Intel y NVIDIA, Samsung y Google utilizarán el Snapdragon XR2+ Gen 2 en sus ofertas planificadas de realidad virtual (Figura A) que se ejecutan en Android, que eventualmente podría competir con el Apple Vision Pro. El Snapdragon XR2+ Gen 2 compite actualmente con la tecnología AI PC de Intel para dispositivos livianos y automotrices, así como con los semiconductores de NVIDIA. Figura A La plataforma de referencia para los auriculares VR y MR de Qualcomm. Una plataforma de referencia es una prueba de concepto para posibles aplicaciones de hardware. Imagen: Qualcomm Technologies, Inc. Qualcomm mira hacia el futuro con teléfonos mejorados con IA Durante su discurso de apertura, Amon analizó la historia de Qualcomm en el espacio de la telefonía móvil. El desarrollo de chips en los que ejecutar IA representa una evolución de la tecnología de dispositivos móviles, dijo, pero no predice que los dispositivos impulsados ​​por IA reemplazarán a los teléfonos actuales. En cambio, Amon dijo: «Lo que va a pasar ahora es que el teléfono tendrá una función diferente, que no es sólo la que solía hacer, donde el teléfono era bueno para todas las aplicaciones que tienes, sino que también el teléfono va a funcionar». comunicarse con la nube. El teléfono no irá a ninguna parte, pero será mejorado por la IA”. Por ejemplo, dijo Amon, una persona podría pedirle a un asistente de IA generativa que llame a un Uber. En lugar de utilizar la aplicación Uber en el teléfono, el asistente de IA generativa puede conectarse directamente a Uber a través de la nube. Noticias de tecnología automotriz de Qualcomm en CES 2024 Qualcomm continuó la tendencia clásica de CES de mostrar la última tecnología automotriz con su plataforma Snapdragon Digital Chassis, que permite servicios de automóviles conectados para el trabajo en movimiento y la eficiencia de la vida. Otras ofertas de automóviles conectados de Qualcomm que se mostrarán en CES 2024 incluyen: Snapdragon Ride Platform, que ayuda a los fabricantes de automóviles globales y a los proveedores de nivel 1 a crear soluciones de conducción automatizada con funciones de asistencia a la conducción de nivel 3, como mantenerse en el carril y mantener automáticamente la velocidad. Snapdragon Ride Flex SoC, informática centralizada para cabina digital, asistencia al conductor y determinadas funciones de conducción autónoma en un único sistema en chip. Los servicios Snapdragon Car-to-Cloud brindan una manera para que las organizaciones impulsen actualizaciones a los servicios de automóviles conectados. Un entorno nativo de la nube altamente eficiente para el desarrollo y la implementación de aplicaciones automotrices proporcionado en colaboración con AWS. SoC Snapdragon Digital Chassis para vehículos de dos ruedas para vehículos pequeños y vehículos agrícolas o ganaderos. Una de las actualizaciones son las “cabinas digitales habilitadas para IA de próxima generación” de Qualcomm para IA generativa en el borde (en este caso, sobre la marcha). Eso significa que los automóviles, dependiendo de la marca individual y de las ofertas de aplicaciones, pueden ejecutar aplicaciones de inteligencia artificial generativa para actualizaciones dinámicas de información relevante para los conductores en la carretera. Los servicios y recomendaciones se pueden personalizar y las aplicaciones pueden anticipar las preferencias y necesidades del conductor. «Nuestro compromiso con el avance de la tecnología automotriz en apoyo de los fabricantes de automóviles globales, los proveedores de primer nivel y nuestros socios del ecosistema está ayudando a dar forma al futuro de los vehículos definidos por software y nos está acelerando hacia una nueva era para la industria automotriz», dijo Nakul Duggal, senior vicepresidente y director general de automoción y computación en la nube de Qualcomm Technologies, Inc., en un comunicado de prensa.

Source link

La respuesta de AWS a la IA generativa en 2023 (y lo que los profesionales de TI deberían esperar en 2024)

Cuando comenzó 2023, Rada Stanic, jefe de tecnología de AWS en Australia y Nueva Zelanda, imaginó que el año estaría dominado por ayudar a los clientes a construir plataformas de datos más modernas en la nube, con un poco de inteligencia artificial y aprendizaje automático en la mezcla. Ese plan cambió rápidamente con la aparición de ChatGPT y una nueva era de IA generativa. «Cuando apareció la IA generativa, se hizo cargo de casi todas las conversaciones que teníamos con nuestros clientes de diferentes industrias y realmente dominó el año», dijo Stanic a TechRepublic. Stanic y Louise Stigwood, directora empresarial de AWS en Australia y Nueva Zelanda, esperan que los casos de uso de IA generativa entre los clientes con sede en Australia y Nueva Zelanda pasen al nivel de producción en 2024. Las empresas de Australasia también se centrarán en la integración de IA responsable y la creación de plataformas de datos. que garantizan que las iniciativas de IA sean un éxito. Saltar a: AWS reinventó su agenda para 2023 a medida que surgieron los LLM en IA generativa. La incorporación repentina de la IA generativa hizo que AWS, al igual que otros proveedores de la nube, aumentara la innovación relacionada con la IA en 2023, desde la estrategia hasta la ejecución. Esto culminó con una serie de grandes anuncios en la conferencia re:Invent del hiperescalador de noviembre de 2023. Rada Stanic, tecnólogo jefe de AWS en Australia y Nueva Zelanda VER: Australia necesita prepararse para aprovechar los beneficios de la inteligencia artificial. Estos incluyeron un nuevo asistente generativo impulsado por IA, Amazon Q, dirigido a empresas. AWS también amplió la elección del modelo básico, las capacidades de ajuste y las herramientas de IA responsable disponibles dentro de su nueva plataforma de IA generativa Amazon Bedrock, entre otros anuncios. «Tenemos este plan de ayudar a los clientes con todo, desde la creación de servicios generativos impulsados ​​por IA hasta proporcionar herramientas que ayuden a democratizar la tecnología para desarrolladores y clientes que no tienen fuertes habilidades tecnológicas», dijo Stanic. Esto está en línea con los esfuerzos que AWS ha realizado con otros productos y servicios, incluido Amazon SageMaker, que se lanzó en 2017 como una plataforma que facilita la implementación de modelos de aprendizaje automático en la nube y que ahora utilizan 100.000 clientes. Más cobertura de IA de lectura obligada Los clientes regionales de AWS se adaptan a un nuevo mundo de IA generativa Los clientes de AWS también se subieron a la ola de IA generativa en 2023. La startup local de IA generativa Leonardo.Ai, que permite a los usuarios generar imágenes y entrenar sus propios modelos personalizados , generó 700 millones de imágenes en el año hasta noviembre de 2023, o 4,5 millones de imágenes diarias (Figura A). Figura A: Con los servicios en la nube de AWS, la plataforma de inteligencia artificial generativa Leonardo.Ai está logrando un crecimiento explosivo en el volumen de imágenes que generan sus usuarios. Imagen: Leonardo.Ai Al escalar utilizando instancias Elastic Compute Cloud Inf2 de Amazon para la inferencia de IA generativa y para ejecutar varios modelos de lenguaje grandes, Leonardo.Ai también fue el primer equipo de Asia y el Pacífico en completar el programa acelerador de IA generativa de AWS para respaldar su crecimiento. Mientras tanto, la empresa de telecomunicaciones One New Zealand, con sede en Nueva Zelanda, comenzó a utilizar capacidades de inteligencia artificial generativa de AWS para ayudar a los agentes de su centro de contacto a comprender mejor por qué llaman los clientes y respaldar proactivamente la resolución de llamadas, lo que generó un aumento medido del 10 % en la confianza del cliente. Louise Stigwood, directora empresarial de AWS en Australia y Nueva Zelanda Los directores ejecutivos y juntas directivas australianas analizan la IA y la optimización de costos de la nube Louise Stigwood dijo que la IA generativa se convirtió en un tema para casi todos los directores ejecutivos y miembros de la junta directiva locales en 2023, mientras buscaban comprender las complejidades de la La tecnología y el papel que puede desempeñar en el cambio. Esto llevó a AWS a desarrollar cursos de formación para que los ejecutivos se pusieran al día. La optimización de costos siguió siendo otra prioridad en un entorno de costos limitados. Stigwood dijo que las organizaciones trabajaron con AWS para duplicar la modernización de los entornos de nube para reducir los costos, lo que ahorró millones en el transcurso del año pasado para clientes como NAB. Muchos clientes empresariales también aprovecharon sus ahorros para financiar la innovación. Un ejemplo fue el anuncio de la AFL de que Marvel Stadium se convertiría en el primer estadio en el hemisferio sur en introducir la tecnología Just Walk Out para compras sin pagar en los juegos. Las tecnologías de AWS que los profesionales de TI deberían tener en cuenta en 2024 Es probable que los avances de AWS en 2023 paguen dividendos a los clientes este año. Por ejemplo, las dos familias de chips de próxima generación (AWS Graviton4 y AWS Trainium2) admitirán cargas de trabajo en la nube, incluido el aprendizaje automático y la inteligencia artificial generativa, lo que ayudará a reducir los costos y aumentar el rendimiento. PREMIUM: Explore la evolución, las características, los inconvenientes y los beneficios de la IA generativa. Stigwood dijo que las nuevas herramientas para su oferta de AWS Supply Chain ayudarán a los clientes a rastrear y mejorar la sostenibilidad de la cadena de suministro. Las actualizaciones incluyen la capacidad de solicitar, recopilar y auditar datos de sostenibilidad de los proveedores, incluidos datos de emisiones de carbono de alcance 1, 2 y 3. Hay una serie de otras mejoras de AWS en 2023 que son relevantes para las empresas locales en 2024. El surgimiento de expertos organizacionales artificiales La síntesis de información organizacional se ha convertido en un caso de uso clave para la IA generativa en general. Stanic dijo que Amazon Q, el nuevo modelo de IA de Amazon creado para ayudar a las empresas a aprovechar sus datos patentados para la IA de forma segura, podría tener efectos innovadores a medida que su uso crezca este año (Figura B). Figura B: El asistente virtual de IA generativa Amazon Q fue presentado por el director ejecutivo de AWS, Adam Selipsky, en 2023. Imagen: AWS “Actuará como un experto en el negocio de un cliente”, dijo Stanic. “Ya tiene una fuerte integración con tecnologías existentes como Amazon Connect para centros de llamadas. Existe un gran interés en utilizar asistentes de IA generativa para ayudar a los agentes del centro de llamadas a brindar ayuda real a los clientes en tiempo real”. La democratización de la IA generativa para crear aplicaciones Las actualizaciones de Amazon Bedrock podrían facilitar que los desarrolladores que no son expertos en IA creen aplicaciones de IA generativa. Con 10.000 clientes, Stanic dijo que muchas empresas se encuentran ahora en la etapa de prueba de concepto con aplicaciones y pasarán a producción en los próximos meses. Por ejemplo, el cliente australiano Adore Beauty ha utilizado Bedrock para respaldar el análisis de las opiniones de los clientes para determinar qué productos tienen un buen rendimiento. La empresa de software de contabilidad Xero creó un asistente virtual para ayudar a incorporar a los clientes y responder sus preguntas con inteligencia artificial. Hacer de la IA responsable parte de la innovación organizacional Las discusiones con los clientes sobre cómo resolver un problema o hacer algo más rápido y mejor con la IA a menudo giran en torno a cuestiones de seguridad y de IA responsable, dijo Stanic. AWS busca integrar la seguridad de la IA en sus herramientas, como lo ha hecho con Guardrails para Amazon Bedrock. Guardrails puede ayudar a las empresas a evaluar las aportaciones de los usuarios y las respuestas del modelo básico en función de políticas específicas de casos de uso, proporcionando una capa adicional de salvaguardas responsables de la IA independientemente del modelo básico. Stanic dijo que puede ayudar a los clientes a implementar y evaluar modelos. El despegue de una nueva red de satélites de órbita baja El proyecto de satélite Low Earth Orbit de Amazon, en el que recientemente la compañía firmó un acuerdo con NTT Docomo en Japón para proporcionar redundancia para sus redes de comunicaciones, podría ayudar a las empresas de telecomunicaciones a ampliar las capacidades 5G o facilitar que AWS Comunicaciones de AWS fuera de la Internet pública. Según Stigwood, esto podría hacer que AWS trabaje con empresas de telecomunicaciones en Australia y Nueva Zelanda para ampliar las redes de comunicaciones. Organizaciones como mineras y otras en áreas regionales también podrían beneficiarse de las ventajas de más opciones de conectividad a través de los satélites LEO de Amazon. Se espera que las tendencias de la tecnología empresarial se aceleren en 2024. AWS espera que la IA generativa vuelva a ocupar un lugar central en 2024. Otras predicciones para los mercados de Australia y Nueva Zelanda de Stanic y Stigwood incluyen que las organizaciones locales se centrarán en plataformas de datos, migración a la nube y modernización. y diversidad de la industria. El surgimiento de la IA generativa de grado de producción Si bien 2023 estuvo dominado por la comprensión y la experimentación con modelos de IA generativa, Stanic espera que 2024 sea el año de la implementación de la IA generativa de grado de producción en la región, lo que podría marcar una gran diferencia para una variedad de verticales de negocios en el mercado local. VER: Australia ha estado adoptando aspectos de la IA generativa a lo largo de 2023 mientras intenta anticiparse a los riesgos. Stanic dijo que es probable que los empleados en Australia y Nueva Zelanda puedan aprovechar mejor las bases de conocimiento internas para encontrar información más rápida y fácilmente, mientras que las vidas de los desarrolladores mejorarán a través de compañeros de codificación como CodeWhisperer de AWS (Figura C). Figura C: CodeWhisperer de AWS apoya a los desarrolladores con productividad generando sugerencias de código que van desde fragmentos hasta funciones completas en tiempo real. Imagen: AWS Stanic agregó que las empresas australianas avanzarán hacia la transformación de las experiencias de sus clientes con IA generativa, incluso a través del popular caso de uso de asistente virtual para centros de llamadas. «Podemos esperar que esos casos de uso bastante viables ganen más tracción este año», dijo Stanic. Centrarse en plataformas de datos sólidas en la nube El éxito de la IA generativa dependerá en gran medida de los datos. Stanic dijo que las organizaciones no deben subestimar el impacto de los datos subyacentes y la plataforma de datos en los proyectos de IA, porque esto puede terminar haciendo o deshaciendo el éxito de la implementación de la IA generativa. «Creemos que veremos a los clientes duplicar su apuesta este año en la creación de plataformas de datos sólidas, escalables y de alto rendimiento en la nube», dijo Stanic. AWS está eliminando parte del trabajo pesado a través de Zero-ETL, que facilita el movimiento de datos punto a punto sin canalizaciones de datos ETL. «Esto puede reducir el tiempo de procesamiento de datos y hacer la vida de los ingenieros de datos mucho más fácil», dijo Stanic. «Respalda el papel fundamental de los datos para impulsar el éxito con la IA generativa». Migración y modernización continua de la nube La migración y la modernización en la nube es una tendencia que, según Stanic, continuará en Australia y Nueva Zelanda, independientemente de otras tendencias que puedan ir y venir. Dijo que las organizaciones quieren poder operar de manera más rentable y escalable, y la nube se lo permite. Esto se combinará con la optimización de los costos de la nube, después de que los costos de la nube se hayan disparado en los últimos años. Con más controles disponibles para la optimización de costos y soporte para hacerlo iterativo, AWS está trabajando con los clientes para redirigir los ahorros de costos de la nube hacia proyectos innovadores. Nuevas oportunidades para la diversidad de la industria tecnológica La llegada de compañeros de codificación como CodeWhisperer podría comenzar a cambiar la forma en que el mercado piensa sobre las tecnologías tradicionales y los roles de ingeniería de software, según Stigwood. Esto podría actuar como catalizador para una mayor diversidad en la industria tecnológica de Australasia. «Cuando hay diversidad en la mesa, hay mejores resultados, y eso es cada vez más un enfoque, particularmente para las empresas más grandes», dijo Stanic. «Este año, muchos han aprovechado nuestro programa Cloud Up For Her, que ayuda a mujeres de cualquier origen a adquirir fluidez tecnológica».

Source link

Intel escinde la empresa de implementación de IA generativa empresarial Articul8

Intel y la firma de inversión global DigitalBridge Group han formado una empresa independiente de software de IA generativa, Articul8 AI, Inc. (Articul8); Intel anunció la nueva compañía el 3 de enero. Articul8 trabajará con Intel y brindará soluciones para organizaciones que deseen construir e implementar IA generativa. Producto y capacidades de Articul8 El producto de Articul8 es «una plataforma de software GenAI llave en mano que ofrece velocidad, seguridad y rentabilidad para ayudar a los clientes de grandes empresas a operacionalizar y escalar la IA», según el comunicado de prensa. Específicamente, Articul8 proporciona infraestructura, una capa de datos administrada, grandes modelos de lenguaje y API para IA generativa. Algunos casos de uso podrían ser: Implementar IA generativa para tareas de ciberseguridad, como la detección de amenazas. Obtener conocimientos sobre datos y generar diseños en ingeniería. Uso de datos de IA en la fabricación de semiconductores. Mejorar las operaciones de telecomunicaciones. Identificar tendencias del mercado y generar insights en finanzas. VER: Esto es lo que establece la Ley de IA de la UE para la industria de la IA generativa (TechRepublic) Más cobertura de IA de lectura obligada El software de Articul8 se ejecuta en procesadores Intel Xeon Scalable y aceleradores Intel Gaudi, pero también puede funcionar en otras infraestructuras. Para brindar flexibilidad a los usuarios empresariales, Articul8 puede trabajar con Intel, AWS, Google Cloud, Microsoft Azure y NVIDIA. Articul8 sigue los pasos de las tendencias actuales de IA empresarial al ofrecer implementación local y asegurarse de que sus capacidades de IA mantengan los datos de la empresa, los datos de los clientes, la capacitación y la inferencia dentro de un perímetro de seguridad empresarial. Está diseñado para organizaciones con altos niveles de seguridad y conocimiento de dominio especializado. Los orígenes de Articul8 Articul8 surgió de Intel y utiliza IP y tecnología desarrollada allí. El director ejecutivo de Articul8 es Arun Subramaniyan, quien anteriormente se desempeñó como vicepresidente y gerente general en el centro de datos y el grupo de inteligencia artificial de Intel. Las dos empresas trabajarán mano a mano y colaborarán mientras operan de forma independiente. Intel financió Articul8, al igual que DigitalBridge Ventures y otros inversores de riesgo. «Con su profundo conocimiento del dominio de IA y HPC y sus implementaciones de GenAI de nivel empresarial, Articul8 está bien posicionado para ofrecer resultados comerciales tangibles para Intel y nuestro ecosistema más amplio de clientes y socios», escribió el CEO de Intel, Pat Gelsinger, en el comunicado de prensa. «A medida que Intel acelera la IA en todas partes, esperamos continuar nuestra colaboración con Articul8». El proyecto que se convertiría en Articul8 ha estado incubando durante dos años en Intel y fue utilizado en Boston Consulting Group, dijo Rich Lesser, presidente global de Boston Consulting Group, en un comunicado de prensa. «Desde entonces, hemos implementado productos Articul8 para múltiples clientes que buscan plataformas listas para producción con un tiempo de comercialización rápido», dijo Lesser. «Estamos entusiasmados con la importante oportunidad que se presenta ante Articul8, que se ve reforzada por esta inversión para acelerar su crecimiento e innovación», dijo Subramaniyan en un correo electrónico a TechRepublic. «Articul8 tiene una importante oportunidad por delante y esta transacción permite a Intel continuar participando en cualquier actividad futura de creación de valor de Articul8». Competidores de Articul8 Otras empresas que trabajan en proporcionar capacidades de implementación y desarrollo de IA generativa completa para empresas incluyen Intel, IBM, HPE, AWS, Dell, Databricks y Google. A medida que más y más empresas buscan casos de uso para la IA generativa, más proveedores de IA de generación están trabajando en la creación de un servicio completo que ofrezca seguridad a nivel empresarial en lugar de los modelos y casos de uso más comerciales y capacitados públicamente.

Source link

La campaña EleKtra-Leak utiliza claves de nube de AWS encontradas en repositorios públicos de GitHub para ejecutar operaciones de criptominería

En la campaña activa Elektra-Leak, los atacantes buscan credenciales de Amazon IAM dentro de los repositorios públicos de GitHub antes de usarlas para la criptominería. Obtenga consejos para mitigar esta amenaza a la ciberseguridad. Imagen: WhataWin Una nueva investigación de la Unidad 42 de Palo Alto Networks expone una campaña de ataque activo en la que un actor de amenazas busca credenciales de Amazon IAM en tiempo real en repositorios de GitHub y comienza a usarlas menos de cinco minutos después. La carga útil final ejecuta software de criptominería Monero personalizado en máquinas virtuales implementadas en las instancias de Amazon. Saltar a: Credenciales de IAM expuestas en GitHub GitHub ofrece a sus usuarios muchas funciones para manejar su código dentro de la plataforma. Una de estas características consiste en proporcionar una lista de todos los repositorios públicos a cualquier usuario que la solicite, lo que ayuda a los desarrolladores a rastrear fácilmente varios desarrollos que les interesan. El seguimiento se realiza en tiempo real y permite que cualquiera, incluidos los actores de amenazas, vea nuevos repositorios. tan pronto como sean enviados a GitHub. VER: Las 8 mejores soluciones de gestión de identidad y acceso (IAM) para 2023 (TechRepublic) Los investigadores de la Unidad 42 de Palo Alto Networks informan que es posible encontrar credenciales de gestión de identidad y acceso de Amazon Web Services dentro de los repositorios públicos de GitHub y que estas credenciales se buscan activamente por los ciberdelincuentes. Para analizar el riesgo en mayor profundidad, los investigadores decidieron almacenar las credenciales de IAM en GitHub y verificar toda la actividad a su alrededor. Esa prueba de honeypot reveló que las claves de AWS filtradas que estaban codificadas en base64 y almacenadas en GitHub no fueron encontradas ni utilizadas por los actores de amenazas, que solo obtuvieron claves de AWS de texto sin cifrar ocultas detrás de una confirmación anterior en un archivo aleatorio. El honeypot permitió a los investigadores William Gamazo y Nathaniel Quist detectar una campaña de ataque particular que comenzó cinco minutos después de que se colocaron las credenciales en GitHub. Detalles técnicos sobre esta campaña de ataque La campaña, denominada EleKtra-Leak por los investigadores en referencia a la ninfa de la nube griega Electra y el uso de Lek como los primeros 3 caracteres en las contraseñas utilizadas por el actor de amenazas, ha estado activa desde al menos diciembre. 2020, según la Unidad 42. Una vez que se encuentran las credenciales de IAM, el atacante realiza una serie de acciones de reconocimiento para saber más sobre la cuenta de AWS a la que se accede (Figura A). Figura A Acciones de reconocimiento ejecutadas por el actor de amenazas en la cuenta de AWS. Imagen: Palo Alto Networks Una vez realizadas esas acciones, el actor de amenazas crea nuevos grupos de seguridad de AWS antes de lanzar varias instancias de Amazon Elastic Compute Cloud por región en cualquier región de AWS accesible. Gamazo y Quist pudieron observar más de 400 llamadas API en siete minutos, todas realizadas a través de una conexión VPN, lo que demuestra que el actor ha automatizado el ataque contra esos entornos de cuentas de AWS. Cobertura de seguridad de lectura obligada El actor de amenazas apuntó a máquinas virtuales en la nube de gran formato para realizar sus operaciones, ya que tienen mayor poder de procesamiento, que es lo que buscan los atacantes cuando ejecutan operaciones de criptominería. El actor de amenazas también eligió imágenes privadas para Amazon Machine Images; algunas de esas imágenes eran distribuciones antiguas de Linux Ubuntu, lo que llevó a los investigadores a creer que la operación se remonta al menos a 2020. El actor de amenazas también pareció bloquear cuentas de AWS que habitualmente exponen credenciales de IAM, ya que este tipo de comportamiento podría originarse en investigadores de amenazas o sistemas de honeypot. El objetivo de esta campaña de ataque: Criptominería. Una vez que se realiza todo el reconocimiento y se inician las máquinas virtuales, se entrega una carga útil, que se descarga desde Google Drive. La carga útil, cifrada en el almacenamiento de Google, se descifra al descargarla. La Unidad 42 afirma que la carga útil es una conocida herramienta de criptominería aparentemente utilizada en 2021 y reportada por Intezer, una empresa especializada en plataformas autónomas de sistemas operativos de seguridad. En la campaña de ataque reportada, Intezer indicó que un actor de amenazas había accedido a instancias de Docker expuestas en Internet para instalar software de criptominería para extraer la criptomoneda Monero. Ese software de criptominería personalizado es el mismo que se utiliza en la nueva campaña expuesta por Palo Alto Networks. El software está configurado para utilizar el grupo de minería SupportXMR. Los grupos de minería permiten que varias personas agreguen su tiempo de computación al mismo espacio de trabajo, lo que aumenta sus posibilidades de ganar más criptomonedas. Como afirmó Palo Alto Networks, el servicio SupportXMR solo proporciona estadísticas por tiempo limitado, por lo que los investigadores obtuvieron las estadísticas de minería durante varias semanas, ya que se usó la misma billetera para las operaciones de minería de AWS (Figura B). Figura B Estadísticas de SupportXMR asociadas con la billetera del actor de la amenaza. Imagen: Palo Alto Networks Entre el 30 de agosto de 2023 y el 6 de octubre de 2023, aparecieron un total de 474 mineros únicos, siendo cada uno de ellos una instancia única de Amazon EC2. Aún no es posible obtener una estimación de la ganancia financiera generada por el actor de la amenaza, ya que Monero incluye controles de privacidad que limitan el seguimiento de este tipo de datos. Medidas automatizadas de GitHub para detectar secretos GitHub escanea automáticamente en busca de secretos en los archivos almacenados en la plataforma y notifica a los proveedores de servicios sobre secretos filtrados en GitHub. Durante su investigación, Gamazo y Quist notaron los secretos que estaban almacenando intencionalmente en GitHub, ya que GitHub detectó con éxito los datos del honeypot para su investigación y los informó a Amazon, quien a su vez aplicó automáticamente en cuestión de minutos una política de cuarentena que evita que los atacantes realicen operaciones como como acceder a AWS IAM, EC2, S3, Lambda y Lightsail. Durante el proceso de investigación, la Unidad 42 dejó la política de cuarentena vigente y estudió pasivamente las pruebas de las cuentas realizadas por los atacantes; luego, se abandonó la política para estudiar toda la cadena de ataque. Los investigadores escriben que «creen que el actor de la amenaza podría encontrar claves de AWS expuestas que no se detectan automáticamente» y que, según su evidencia, los atacantes probablemente lo hicieron, ya que podían ejecutar el ataque sin ninguna política que interfiriera. También afirman que “incluso cuando GitHub y AWS están coordinados para implementar un cierto nivel de protección cuando se filtran claves de AWS, no todos los casos están cubiertos” y que otras víctimas potenciales de este actor de amenazas podrían haber sido atacadas de una manera diferente. Cómo mitigar este riesgo de ciberseguridad Las credenciales de IAM nunca deben almacenarse en GitHub ni en ningún otro servicio o almacenamiento en línea. Las credenciales de IAM expuestas deben eliminarse de los repositorios y se deben generar nuevas credenciales de IAM para reemplazar las filtradas. Las empresas deben utilizar credenciales de corta duración para realizar cualquier funcionalidad dinámica dentro de un entorno de producción. Los equipos de seguridad deben monitorear los repositorios de GitHub utilizados por sus organizaciones. Se debe auditar los eventos de clonación que ocurren en esos repositorios porque es necesario que los actores de amenazas clonen primero los repositorios para ver su contenido. Esa característica está disponible para todas las cuentas de GitHub Enterprise. También se debe realizar constantemente un escaneo personalizado y dedicado en busca de secretos en los repositorios. Herramientas como Trufflehog podrían ayudar en esa tarea. Si no es necesario compartir los repositorios de la organización públicamente, los repositorios privados de GitHub deben ser utilizados y solo el personal de la organización debe acceder a ellos. El acceso a los repositorios privados de GitHub debe protegerse mediante autenticación multifactor para evitar que un atacante acceda a ellos con credenciales de inicio de sesión filtradas. Divulgación: trabajo para Trend Micro, pero las opiniones expresadas en este artículo son mías.

Source link

Funciona con WordPress & Tema de Anders Norén