Todo lo que necesitas saber sobre tecnología

Etiqueta: nube de google

Una guía completa para 2024

OpenAI puede ser el nombre más conocido cuando se trata de IA generativa comercial, pero Meta ha conseguido hacerse un hueco a través de potentes modelos de lenguaje de gran tamaño de código abierto. Meta reveló su modelo de IA generativa más grande hasta el momento, Llama 3, el 18 de abril, que supera al GPT04 en algunas pruebas estándar de IA. ¿Qué es Llama 3? Llama 3 es un LLM creado por Meta. Se puede utilizar para crear IA generativa, incluidos chatbots que puedan responder en lenguaje natural a una amplia variedad de consultas. Los casos de uso en los que se ha evaluado Llama 3 incluyen lluvia de ideas, escritura creativa, codificación, resumen de documentos y respuesta a preguntas en la voz de una persona o personaje específico. El modelo Llama 3 completo viene en cuatro variantes: 8 mil millones de parámetros preentrenados. Instrucción de 8 mil millones de parámetros ajustada. 70 mil millones de parámetros previamente entrenados. Instrucción de 70 mil millones de parámetros ajustada. Las capacidades de IA generativa de Llama 3 se pueden utilizar en un navegador, a través de funciones de IA en Facebook, Instagram, WhatsApp y Messenger de Meta. El modelo en sí se puede descargar desde Meta o desde las principales plataformas empresariales en la nube. ¿Cuándo se lanzará Llama 3 y en qué plataformas? Llama 3 se lanzó el 18 de abril en Google Cloud Vertex AI, watsonx.ai de IBM y otras grandes plataformas de alojamiento LLM. AWS siguió y agregó Llama 3 a Amazon Bedrock el 23 de abril. A partir del 29 de abril, Llama 3 está disponible en las siguientes plataformas: Databricks. Abrazando la cara. Kaggle. Microsoft Azure. NIM de NVIDIA. Las plataformas de hardware de AMD, AWS, Dell, Intel, NVIDIA y Qualcomm son compatibles con Llama 3. ¿Llama 3 es de código abierto? Llama 3 es de código abierto, como lo han sido los otros LLM de Meta. La creación de modelos de código abierto ha sido un valioso diferenciador para Meta. VER: El informe del índice de IA de Stanford revela 8 tendencias de la IA en los negocios actuales. (TechRepublic) Existe cierto debate sobre qué parte del código o los pesos de un modelo de lenguaje grande deben estar disponibles públicamente para contar como código abierto. Pero en lo que respecta a los fines comerciales, Meta ofrece una mirada más abierta a Llama 3 que sus competidores para sus LLM. ¿Llama 3 es gratis? Llama 3 es gratuito siempre que se utilice según los términos de la licencia. El modelo se puede descargar directamente desde Meta o utilizar dentro de los diversos servicios de alojamiento en la nube enumerados anteriormente, aunque esos servicios pueden tener tarifas asociadas. La página de inicio de Meta AI en un navegador ofrece opciones sobre qué pedirle a Llama 3 que haga. Imagen: Meta / Captura de pantalla de Megan Crouse ¿Llama 3 es multimodal? Llama 3 no es multimodal, lo que significa que no es capaz de comprender datos de diferentes modalidades como vídeo, audio o texto. Meta planea hacer que Llama 3 sea multimodal en un futuro próximo. Mejoras de Llama 3 sobre Llama 2 Para hacer que Llama 3 sea más capaz que Llama 2, Meta agregó un nuevo tokenizador para codificar el lenguaje de manera mucho más eficiente. Meta mejoró Llama 3 con atención de consultas agrupadas, un método para mejorar la eficiencia de la inferencia del modelo. El conjunto de entrenamiento de Llama 3 es siete veces mayor que el conjunto de entrenamiento utilizado para Llama 2, dijo Meta, e incluye cuatro veces más código. Meta aplicó nuevas eficiencias al preentrenamiento y al ajuste de instrucciones de Llama 3. Dado que Llama 3 está diseñado como un modelo abierto, Meta agregó barreras de seguridad pensando en los desarrolladores. Una nueva barrera de seguridad es Code Shield, cuyo objetivo es detectar el código inseguro que el modelo pueda producir. ¿Qué sigue para Llama 3? Meta planea: Agregar varios idiomas a Llama 3. Expandir la ventana contextual. Generalmente aumenta las capacidades del modelo en el futuro. Meta está trabajando en un modelo de parámetros 400B, que puede ayudar a dar forma a la próxima generación de Llama 3. En las primeras pruebas, Llama 3 400B con ajuste de instrucciones obtuvo una puntuación de 86,1 en la evaluación de conocimientos MMLU (una prueba comparativa de IA), según Meta, lo que lo convierte en competitivo con GPT-4. Llama 400B sería el LLM más grande de Meta hasta el momento. El lugar de Llama 3 en el competitivo panorama de la IA generativa Llama 3 compite directamente con GPT-4 y GPT-3.5, Gemini y Gemma de Google, Mistral 7B de Mistral AI, Perplexity AI y otros LLM para uso individual o comercial para construir chatbots de IA generativa y otros. herramientas. Aproximadamente una semana después de que se revelara Llama 3, Snowflake presentó su propia IA empresarial abierta con capacidades comparables, llamada Snowflake Arctic. Los crecientes requisitos de rendimiento de LLM como Llama 3 están contribuyendo a una carrera armamentista de PC con IA que pueden ejecutar modelos al menos parcialmente en el dispositivo. Mientras tanto, las empresas de IA generativa pueden enfrentar un mayor escrutinio por sus grandes necesidades informáticas, lo que podría contribuir a empeorar el cambio climático. Llama 3 vs GPT-4 Llama 3 supera al GPT-4 de OpenAI en HumanEval, que es un punto de referencia estándar que compara la capacidad del modelo de IA para generar código con el código escrito por humanos. Llama 3 70B obtuvo una puntuación de 81,7, en comparación con la puntuación de 67 de GPT-4. Sin embargo, GPT-4 superó a Llama 3 en la evaluación de conocimientos MMLU con una puntuación de 86,4 frente a 79,5 de Llama 3 70B. El rendimiento de Llama 3 en más pruebas se puede encontrar en la publicación del blog de Meta.

Un nuevo chip de centro de datos se une al ecosistema

Google Cloud anunció una nueva suscripción empresarial para Chrome y una serie de complementos de IA generativa para Google Workspace durante la conferencia Cloud Next ’24, celebrada en Las Vegas del 9 al 11 de abril. En general, Google Cloud está poniendo su IA generativa Gemini en coloque todo lo que pueda; por ejemplo, la empresa está apostando por proporcionar infraestructura Vertex AI para la IA y el hardware de otras empresas, como la nueva CPU Axion. Asistimos a una sesión informativa previa para echar un vistazo temprano a las nuevas funciones y herramientas, incluido un servicio de video generativo de IA para uso en marketing y comunicaciones internas. A continuación se ofrece un resumen de lo que consideramos las noticias empresariales más impactantes de Google Cloud Next. Chrome Enterprise Premium agrega controles de seguridad Los navegadores empresariales pueden ser una tendencia creciente. El año pasado, Gartner predijo que los navegadores creados específicamente teniendo en cuenta la seguridad y el soporte a nivel empresarial alcanzarían una adopción generalizada para 2030. Google está contribuyendo con Chrome Enterprise Premium. Este nivel empresarial agrega un nivel adicional de seguridad a Chrome, mejorándolo con: Controles empresariales para la aplicación de políticas y administración de actualizaciones y extensiones de software. Informes de eventos y dispositivos. Informes de seguridad forense. Controles de acceso contextuales. Amenazas y protección de datos. Chrome Enterprise Premium está disponible hoy, 9 de abril, en cualquier lugar donde se ofrezca Chrome. Cuesta $6 por usuario por mes. Axion es la primera CPU basada en Arm de Google Algunos servicios de Google Cloud, como BigQuery, pronto se ejecutarán en los procesadores Google Axion, la primera CPU basada en Arm personalizada de Google para centros de datos (Figura A). Google Cloud dijo que Axion muestra un rendimiento un 50% mejor que las máquinas virtuales comparables basadas en x86 de la generación actual. Las instancias de Google Compute Engine, Google Kubernetes Engine, Dataproc, Dataflow, Cloud Batch y más estarán disponibles más adelante en 2024. Figura A Los procesadores Google Axion están destinados a ejecutar cargas de trabajo en la nube en centros de datos. Imagen: Google Cloud Vertex AI se basará en la Búsqueda de Google A partir del 9 de abril, los modelos entrenados en Vertex AI se basarán en la Búsqueda de Google. Esto podría resultar controvertido dependiendo exactamente de qué datos se utilicen para la capacitación. La conexión a tierra de la IA es parte de la tendencia de recuperación de generación aumentada, que evita las «alucinaciones» al comparar la IA con información genuina. Google Cloud dice que la conexión a tierra proporcionará a los modelos creados en Vertex AI «información nueva y de alta calidad». Más noticias y consejos de Google Una gran cantidad de adiciones de IA para los productos de seguridad de Google Otros anuncios de Google Cloud se centraron en agregar Gemini a los productos de seguridad, una medida posiblemente destinada a competir con la integración completa de Copilot por parte de Microsoft en sus suites de seguridad. Gemini AI ahora estará disponible en Google Security Operations (Figura B) y Threat Intelligence. En particular, Gemini podrá ayudar con las investigaciones en Chronicle Enterprise y Chronicle Enterprise Plus a partir de finales de abril. A partir del 9 de abril, los analistas de seguridad pueden utilizar Gemini para hablar en lenguaje natural con el software de inteligencia de amenazas de Mandiant. Figura B Un ejemplo del uso de Gemini en Operaciones de seguridad para investigar incidentes y alertas con chat conversacional en Chronicle Enterprise o Enterprise Plus. Imagen: Google Cloud Gemini en Security Command Center recibió un impulso de Gemini; A partir del 9 de abril, las funciones de IA en la vista previa pueden buscar amenazas basándose en indicaciones de lenguaje natural y resumir alertas y rutas de ataque. «Los ingenieros de detección pueden crear detecciones y guías con menos esfuerzo, y los analistas de seguridad pueden encontrar respuestas rápidamente con resúmenes inteligentes y búsquedas en lenguaje natural», dijo Ronald Smalley, vicepresidente senior de Operaciones de Ciberseguridad de Fiserv, en un comunicado de prensa de Google Cloud. «Esto es fundamental ya que los equipos de SOC continúan administrando volúmenes de datos cada vez mayores y necesitan detectar, validar y responder a eventos más rápido». Gemini Cloud Assist en los servicios de seguridad de Google Cloud ahora incluirá las siguientes capacidades impulsadas por IA en versión preliminar: Identidad y acceso recomendaciones de manejo para mejorar la postura IAM. Asistencia con la creación de claves de cifrado. Sugerencias sobre cómo implementar la protección informática confidencial. Cree videos con IA y más en las nuevas ofertas de Google Workspace Google presentó una nueva plataforma Workspace llamada Google Vids (Figura C), con la cual la IA generativa puede ayudar a los empleados a crear videos promocionales o informativos. Figura C Un usuario proporciona un guión como mensaje para darle a Google Vids una idea de lo que quiere que diga su video. Imagen: Google Cloud Primero, Google Vids creará un guión gráfico que el usuario podrá personalizar. Desde allí, Google Vids puede crear el video y agregar voz en off con voces AI preestablecidas o audio personalizado. Google Vids será una plataforma completamente nueva que convivirá junto con Docs Sheets y Slides. Se podrá acceder a los vídeos a través de Workspace Labs en junio. Más anuncios de Google Workspace Una herramienta de inteligencia artificial para resumir y traducir reuniones, que costará 10 dólares por usuario al mes. Clasificación y protección de archivos del complemento AI Security, que costará 10 dólares por usuario al mes. En Gmail, la IA habilitará las herramientas «Pulir mi borrador» y «Ayúdame a escribir», la última de las cuales se puede utilizar mediante comandos de voz en el móvil. Google Gemini llega a Chat y Docs para crear imágenes de portada. Vertex AI se integrará en Google Workspace. Extensión de HubSpot para Gemini para Google Workspace. Gemini 1.5 Pro llega a Vertex AI y Data Cloud Google anunció muchos cambios en el portafolio de Data Cloud en bases de datos y análisis de datos. La más importante fue la disponibilidad de Gemini 1.5 Pro en Vertex AI, que permite una ventana de contexto de un millón de tokens. VER: Todo lo que necesitas saber sobre Google Cloud Platform. (TechRepublic) Google continúa ampliando las integraciones y capacidades de Gemini: en la vista previa de hoy están Gemini en Looker y Gemini en BigQuery. Las nuevas características adicionales de BigQuery disponibles hoy en vista previa o vista previa privada incluyen información sobre documentos y audio de Vertex AI, incrustaciones y coincidencias de vectores, y más. Otros anuncios (en vista previa a menos que se indique lo contrario) incluyen: Google Gemini en bases de datos. Soporte vectorial e integración de LangChain en Bases de Datos. Soporte de vectores, soporte de lenguaje natural y gestión de puntos finales de modelos para AlloyDB. Acceso aislado a cargas de trabajo desde motores de análisis en Bigtable Data Boost. Capacidades ampliadas de recuperación ante desastres y mantenimiento en menos de dos segundos (en disponibilidad general) en Cloud SQL. Nuevo tamaño de instancia para Memorystore (en disponibilidad general) y compatibilidad con dos nuevas opciones de persistencia en Memorystore (en versión preliminar). Claves de cifrado administradas por el cliente en Cloud Firestore. TPU v5p entra en disponibilidad general El acelerador de IA TPU v5p de Google ahora está en disponibilidad general, lo que permite a las organizaciones usarlo para inferencia y capacitación de IA. Además, Google Kubernetes Engine ahora es compatible con TPU v5p. Avanzando en la hipercomputación y la computación en la nube, Google Cloud trabajará con el hardware de NVIDIA para impulsar la infraestructura de capacitación en inteligencia artificial de Google. Los anuncios del grupo de infraestructura en la nube incluyeron: A3 Mega VM con tecnología de GPU NVIDIA H100 Tensor Core para entrenamiento de IA a gran escala, disponibles de forma generalizada en mayo. Hyperdisk ML, un nuevo servicio de almacenamiento en bloque para cargas de trabajo de inferencia/servicio de IA, ya está disponible en versión preliminar. JetStream, un motor de inferencia de rendimiento y memoria optimizado para la formación LLM, está disponible hoy en GitHub. Dynamic Workload Scheduler, un servicio para administrar recursos en Google Cloud para optimizar las cargas de trabajo de IA según la capacidad informática, ahora está en versión preliminar. Duet AI para desarrolladores ahora es Gemini Code Assist. Competidores de Google Cloud El amplio catálogo de productos de Google significa que tiene muchos competidores en diferentes sectores. En el ecosistema de IA generativa y en el soporte empresarial en particular, compite y a menudo interopera con Copilot AI, AWS, IBM y SAP de Microsoft. El chip Axion en particular podría ayudar a Google a ingresar al espacio de chips para centros de datos dominado por Amazon y NVIDIA. TechRepublic cubre Google Cloud Next ’24 de forma remota.

Intel Vision 2024 ofrece una nueva mirada al chip AI Gaudi 3

Después de anunciar por primera vez la existencia del acelerador de IA Gaudi 3 el año pasado, Intel está listo para poner el chip en manos de los OEM en el segundo trimestre de 2024. Intel anunció esta y otras noticias, incluida una nueva marca Xeon 6 y un estándar Ethernet abierto para IA. cargas de trabajo, en una sesión informativa previa celebrada el 1 de abril antes de la conferencia Intel Vision, que se llevará a cabo del 8 al 9 de abril en Phoenix, Arizona. El acelerador de IA Gaudi 3 se enviará a Dell, Hewlett Packard Enterprise, Lenovo y Supermicro. El Gaudi 3 se lanzará con Dell, Hewlett Packard Enterprise, Lenovo y Supermicro como socios OEM. Intel Gaudi 3 estará disponible a través de proveedores en tres factores de forma: tarjeta intermedia, placa base universal o PCle CEM. Gaudi 3 tiene un tiempo de entrenamiento de modelos de lenguajes grandes un 40% más rápido en comparación con el chip H100 AI de NVIDIA y una inferencia en LLM un 50% más rápida en comparación con el NVIDIA H100, dijo Intel. Gaudi 3 puede enfrentarse cara a cara con el chip acelerador de IA recientemente anunciado por NVIDIA, Blackwell. Gaudi 3 es «altamente competitivo», afirmó Jeff McVeigh, vicepresidente corporativo y director general del Grupo de Ingeniería de Software de Intel. McVeigh señaló que aún no ha sido posible realizar pruebas en el mundo real para los dos productos. La nueva marca Xeon 6 llegará en el segundo trimestre. Los procesadores Xeon 6, que vienen en las dos variantes de Performance-core y Efficient-core, se enviarán pronto. Los procesadores E-core se enviarán en el segundo trimestre de 2024, y poco después los procesadores P-core. Las dos variantes de los procesadores Xeon 6 comparten la misma base de plataforma y pila de software. El núcleo Performance está optimizado para cargas de trabajo de IA y de computación intensiva, mientras que el núcleo Efficient está optimizado para la eficiencia en las mismas cargas de trabajo. El procesador Intel Xeon 6 con E-core muestra una mejora de rendimiento por vatio de 2,4 veces en comparación con las generaciones anteriores y una mejora de rendimiento por bastidor de 2,7 veces en comparación con las generaciones anteriores. El procesador Xeon 6 muestra un marcado ahorro de energía en comparación con el procesador Intel Xeon de segunda generación debido a que necesita menos bastidores de servidores, lo que supone una reducción de energía de hasta 1 megavatio. La tarjeta de interfaz de red admite el estándar abierto de Internet para cargas de trabajo de IA. Como parte del esfuerzo de Intel para proporcionar una amplia gama de infraestructura de IA, la compañía anunció una tarjeta de interfaz de red de IA para adaptadores de red Intel Ethernet y IPU Intel. Las tarjetas de interfaz de red de IA, que ya utiliza Google Cloud, proporcionarán una forma segura de descargar funciones como almacenamiento, redes y gestión de contenedores y gestionar la infraestructura de IA, dijo Intel. La intención es poder entrenar y ejecutar inferencias sobre los modelos de IA generativa cada vez más grandes que Intel predice que las organizaciones querrán implementar en todo Ethernet. Intel está trabajando con el Consorcio Ultra Ethernet para crear un estándar abierto para redes de IA a través de Ethernet. Se espera que las tarjetas de interfaz de red de IA estén disponibles en 2026. Una estrategia de sistemas escalables de amplio alcance tiene como objetivo facilitar la adopción de la IA. Para prepararse para lo que la compañía predice que será el futuro de la IA, Intel planea implementar una estrategia de sistemas escalables. para empresas. «Queremos que sea abierto y que las empresas tengan opciones en hardware, software y aplicaciones», dijo Sachin Katti, vicepresidente senior y gerente general de Network and Edge Group de Intel, en la sesión informativa previa. Para lograrlo, la estrategia de sistemas escalables proporciona productos Intel para todos los segmentos de IA dentro de la empresa: hardware, software, marcos y herramientas. Intel está trabajando con una variedad de socios para hacer realidad esta estrategia, incluido: Google Cloud. Tales. Cohesidad. NAVER. Bosco. Ola/Kutrim. NielsenIQ. Buscador. FIB. Grupo CtrlS. Aterrizando IA. Roboflujo. Intel predice un futuro de agentes y funciones de IA. Katti dijo en el informe previo que las empresas se encuentran en una era de copilotos de IA. Luego podría venir una era de agentes de IA, que puedan coordinar otras IA para realizar tareas de forma autónoma, seguida de una era de funciones de IA. El aumento de las funciones de IA podría significar que grupos de agentes asuman el trabajo de un departamento completo, dijo Sachin. VER: Articul8, creadores de una plataforma de software de inteligencia artificial generativa, se separó de Intel en enero. (TechRepublic) Competidores de Intel Intel está tratando de diferenciarse de sus competidores centrándose en la interoperabilidad en el ecosistema abierto. Intel compite en el espacio de los chips de IA con: NVIDIA, que anunció el chip Blackwell de próxima generación en marzo de 2024. AMD, que en febrero de 2024 anunció una nueva solución arquitectónica para la inferencia de IA basada en procesadores AMD Ryzen Embedded. Intel compite por el dominio en la fabricación de chips con Taiwan Semiconductor Manufacturing Co., Samsung, IBM, Micron Technologies, Qualcomm y otros. TechRepublic cubre Intel Vision de forma remota.

Los profesionales de TI y seguridad son «cautelosamente optimistas» sobre la IA

La alta dirección está más familiarizada con las tecnologías de inteligencia artificial que su personal de seguridad y TI, según un informe de Cloud Security Alliance encargado por Google Cloud. El informe, publicado el 3 de abril, abordó si los profesionales de TI y seguridad temen que la IA reemplace sus trabajos, los beneficios y desafíos del aumento de la IA generativa y más. De los profesionales de TI y seguridad encuestados, el 63 % cree que la IA mejorará la seguridad dentro de su organización. Otro 24% es neutral sobre el impacto de la IA en las medidas de seguridad, mientras que el 12% no cree que la IA mejore la seguridad dentro de su organización. De las personas encuestadas, sólo unos pocos (12%) predicen que la IA reemplazará sus puestos de trabajo. La encuesta utilizada para crear el informe se realizó a nivel internacional, con respuestas de 2486 profesionales de seguridad y TI y líderes de la alta dirección de organizaciones de toda América, APAC y EMEA en noviembre de 2023. Los profesionales de ciberseguridad que no ocupan puestos de liderazgo son menos claros que los altos directivos. sobre posibles casos de uso de la IA en ciberseguridad, y solo el 14% del personal (en comparación con el 51% de los niveles C) dicen que son «muy claros». «La desconexión entre la alta dirección y el personal a la hora de comprender e implementar la IA resalta la necesidad de un enfoque estratégico y unificado para integrar con éxito esta tecnología», dijo Caleb Sima, presidente de la Iniciativa de Seguridad de IA de Cloud Security Alliance, en un comunicado de prensa. Algunas preguntas del informe especificaban que las respuestas debían estar relacionadas con la IA generativa, mientras que otras preguntas utilizaban el término «IA» de manera amplia. Los profesionales de nivel C enfrentan presiones de arriba hacia abajo que pueden haberlos llevado a ser más conscientes de los casos de uso de la IA que los profesionales de la seguridad. Muchos (82%) profesionales de la alta dirección dicen que su liderazgo ejecutivo y sus juntas directivas están presionando para que se adopte la IA. Sin embargo, el informe afirma que este enfoque podría causar problemas de implementación en el futuro. «Esto puede resaltar una falta de apreciación de la dificultad y el conocimiento necesarios para adoptar e implementar una tecnología tan única y disruptiva (por ejemplo, ingeniería rápida)», escribió la autora principal Hillary Baron, directora técnica senior de investigación y análisis de Cloud Security Alliance. y un equipo de colaboradores. Hay algunas razones por las que podría existir esta brecha de conocimiento: los profesionales de la ciberseguridad pueden no estar tan informados sobre la forma en que la IA puede afectar la estrategia general. Los líderes pueden subestimar lo difícil que podría ser implementar estrategias de IA dentro de las prácticas de ciberseguridad existentes. Los autores del informe señalan que algunos datos (Figura A) indican que los encuestados están tan familiarizados con la IA generativa y los grandes modelos de lenguaje como con términos más antiguos como procesamiento del lenguaje natural y aprendizaje profundo. Figura A Respuestas a la instrucción «Califique su familiaridad con las siguientes tecnologías o sistemas de IA». Imagen: Cloud Security Alliance Los autores del informe señalan que el predominio de la familiaridad con términos más antiguos, como procesamiento del lenguaje natural y aprendizaje profundo, podría indicar una combinación entre la IA generativa y herramientas populares como ChatGPT. «Es la diferencia entre estar familiarizado con las herramientas GenAI de nivel de consumidor versus el nivel profesional/empresarial lo que es más importante en términos de adopción e implementación», dijo Baron en un correo electrónico a TechRepublic. «Eso es algo que estamos viendo en general en todos los ámbitos con los profesionales de seguridad en todos los niveles». ¿La IA reemplazará los trabajos de ciberseguridad? Un pequeño grupo (12%) de profesionales de la seguridad cree que la IA sustituirá por completo sus puestos de trabajo en los próximos cinco años. Otros son más optimistas: el 30% cree que la IA les ayudará a mejorar partes de sus habilidades. El 28% predice que la IA los apoyará en general en su función actual. El 24% cree que la IA sustituirá gran parte de su función. El 5% espera que la IA no afecte en absoluto su función. Los objetivos de las organizaciones para la IA reflejan esto: el 36% busca que la IA mejore las habilidades y el conocimiento de los equipos de seguridad. El informe señala una discrepancia interesante: aunque mejorar las habilidades y los conocimientos es un resultado muy deseado, el talento ocupa el último lugar en la lista de desafíos. Esto podría significar que tareas inmediatas, como identificar amenazas, tengan prioridad en las operaciones diarias, mientras que el talento sea una preocupación a más largo plazo. Más cobertura de IA de lectura obligada Beneficios y desafíos de la IA en ciberseguridad El grupo estaba dividido sobre si la IA sería más beneficiosa para los defensores o los atacantes: el 34% considera que la IA es más beneficiosa para los equipos de seguridad. El 31% lo considera igualmente ventajoso tanto para los defensores como para los atacantes. El 25% lo ve más beneficioso para los atacantes. Los profesionales preocupados por el uso de la IA en seguridad citan las siguientes razones: Mala calidad de los datos, lo que genera sesgos no deseados y otros problemas (38%). Falta de transparencia (36%). Brechas de habilidades/experiencia cuando se trata de gestionar sistemas complejos de IA (33%). Intoxicación de datos (28%). Las alucinaciones, la privacidad, la fuga o pérdida de datos, la precisión y el mal uso eran otras opciones de lo que podría preocupar a la gente; Todas estas opciones recibieron menos del 25% de los votos en la encuesta, donde se invitó a los encuestados a seleccionar sus tres principales preocupaciones. VER: El Centro Nacional de Seguridad Cibernética del Reino Unido descubrió que la IA generativa puede mejorar los arsenales de los atacantes. (TechRepublic) Más de la mitad (51%) de los encuestados dijeron “sí” a la pregunta de si les preocupan los riesgos potenciales de una dependencia excesiva de la IA para la ciberseguridad; otro 28% fue neutral. Usos previstos de la IA generativa en la ciberseguridad De las organizaciones que planean utilizar la IA generativa para la ciberseguridad, existe una amplia variedad de usos previstos (Figura B). Los usos comunes incluyen: Creación de reglas. Simulación de ataque. Monitoreo de violaciones de cumplimiento. Detección de red. Reducir los falsos positivos. Figura B Respuestas a la pregunta ¿Cómo planea su organización utilizar la IA generativa para la ciberseguridad? (Seleccione los 3 casos de uso principales). Imagen: Cloud Security Alliance Cómo están estructurando las organizaciones sus equipos en la era de la IA De las personas encuestadas, el 74% dice que sus organizaciones planean crear nuevos equipos para supervisar el uso seguro de la IA en los próximos cinco años. La forma en que se estructuran esos equipos puede variar. Hoy en día, algunas organizaciones que trabajan en la implementación de IA la ponen en manos de su equipo de seguridad (24%). Otras organizaciones otorgan la responsabilidad principal de la implementación de IA al departamento de TI (21%), el equipo de análisis/ciencia de datos (16%), un equipo dedicado de IA/ML (13%) o la alta dirección/liderazgo (9%). En casos más raros, DevOps (8%), equipos multifuncionales (6%) o un equipo que no encajaba en ninguna de las categorías (listado como “otros” en el 1%) asumieron la responsabilidad. VER: Kit de contratación: ingeniero rápido (TechRepublic Premium) «Es evidente que la IA en la ciberseguridad no solo está transformando los roles existentes, sino también allanando el camino para nuevos puestos especializados», escribieron la autora principal Hillary Baron y el equipo de colaboradores. ¿Qué tipo de posiciones? La gobernanza generativa de la IA es un subcampo en crecimiento, dijo Baron a TechRepublic, al igual que la capacitación y la mejora de habilidades centradas en la IA. «En general, también estamos empezando a ver ofertas de trabajo que incluyen roles más específicos de IA, como ingenieros rápidos, arquitectos de seguridad de IA e ingenieros de seguridad», dijo Baron.

Source link

Nuevas herramientas de IA generativa de Google disponibles para minoristas

El negocio en la nube de Google ha introducido un conjunto de nuevas herramientas impulsadas por inteligencia artificial generativa (IA). Estos nuevos peajes mejorarán las experiencias de compra online y diversas operaciones minoristas. Entre los nuevos productos se encuentra un chatbot generativo impulsado por IA diseñado para que los minoristas lo utilicen en sitios web y aplicaciones móviles. Estos agentes virtuales interactúan con los consumidores en las distintas plataformas (sitios web y aplicaciones móviles). El chatbot de IA proporcionará recomendaciones de productos basadas en las preferencias de los usuarios. Google destaca la rápida evolución de la IA generativa Carrie Tharp, vicepresidenta de industrias estratégicas de Google Cloud, destacó la rápida evolución de la IA generativa. Afirmó que se ha convertido en una de las capacidades tecnológicas de más rápido avance en un año. Añadió que la IA generativa es ahora una parte crucial de las estrategias de muchos minoristas. Gizchina Noticias de la semana Las ofertas de Google Cloud son parte de la tendencia más amplia de la creciente influencia de la IA generativa en el sector minorista. Amazon introdujo una herramienta de inteligencia artificial para los vendedores en septiembre y, durante la reciente temporada de compras navideñas, muchos minoristas incorporaron esta floreciente tecnología para mejorar varios aspectos de sus operaciones. Otra característica que acaba de anunciar Google es un gran modelo de lenguaje que llega para mejorar la calidad de las búsquedas de productos. Si bien actualmente está disponible en tiendas selectas, se espera que esté más accesible a finales de este año. Otras herramientas de IA generativa de Google Además de estas mejoras en las compras en línea, los productos de IA de Google incluyen herramientas para mejorar los sistemas de servicio al cliente y agilizar los procesos de catalogación de productos para los minoristas. El impacto de la IA no se limita únicamente a las compras online. En un futuro próximo, las tiendas físicas también se beneficiarán de nuevas capacidades a través de Google Distributed Cloud Edge, un producto de hardware y software existente. Este anuncio precede a la convención anual de la Federación Nacional de Minoristas en la ciudad de Nueva York. Refleja la integración continua de tecnologías avanzadas de inteligencia artificial en la industria minorista. Descargo de responsabilidad: Es posible que algunas de las empresas de cuyos productos hablamos nos compensen, pero nuestros artículos y reseñas son siempre nuestras opiniones honestas. Para obtener más detalles, puede consultar nuestras pautas editoriales y conocer cómo utilizamos los enlaces de afiliados.

Source link

Intel escinde la empresa de implementación de IA generativa empresarial Articul8

Intel y la firma de inversión global DigitalBridge Group han formado una empresa independiente de software de IA generativa, Articul8 AI, Inc. (Articul8); Intel anunció la nueva compañía el 3 de enero. Articul8 trabajará con Intel y brindará soluciones para organizaciones que deseen construir e implementar IA generativa. Producto y capacidades de Articul8 El producto de Articul8 es «una plataforma de software GenAI llave en mano que ofrece velocidad, seguridad y rentabilidad para ayudar a los clientes de grandes empresas a operacionalizar y escalar la IA», según el comunicado de prensa. Específicamente, Articul8 proporciona infraestructura, una capa de datos administrada, grandes modelos de lenguaje y API para IA generativa. Algunos casos de uso podrían ser: Implementar IA generativa para tareas de ciberseguridad, como la detección de amenazas. Obtener conocimientos sobre datos y generar diseños en ingeniería. Uso de datos de IA en la fabricación de semiconductores. Mejorar las operaciones de telecomunicaciones. Identificar tendencias del mercado y generar insights en finanzas. VER: Esto es lo que establece la Ley de IA de la UE para la industria de la IA generativa (TechRepublic) Más cobertura de IA de lectura obligada El software de Articul8 se ejecuta en procesadores Intel Xeon Scalable y aceleradores Intel Gaudi, pero también puede funcionar en otras infraestructuras. Para brindar flexibilidad a los usuarios empresariales, Articul8 puede trabajar con Intel, AWS, Google Cloud, Microsoft Azure y NVIDIA. Articul8 sigue los pasos de las tendencias actuales de IA empresarial al ofrecer implementación local y asegurarse de que sus capacidades de IA mantengan los datos de la empresa, los datos de los clientes, la capacitación y la inferencia dentro de un perímetro de seguridad empresarial. Está diseñado para organizaciones con altos niveles de seguridad y conocimiento de dominio especializado. Los orígenes de Articul8 Articul8 surgió de Intel y utiliza IP y tecnología desarrollada allí. El director ejecutivo de Articul8 es Arun Subramaniyan, quien anteriormente se desempeñó como vicepresidente y gerente general en el centro de datos y el grupo de inteligencia artificial de Intel. Las dos empresas trabajarán mano a mano y colaborarán mientras operan de forma independiente. Intel financió Articul8, al igual que DigitalBridge Ventures y otros inversores de riesgo. «Con su profundo conocimiento del dominio de IA y HPC y sus implementaciones de GenAI de nivel empresarial, Articul8 está bien posicionado para ofrecer resultados comerciales tangibles para Intel y nuestro ecosistema más amplio de clientes y socios», escribió el CEO de Intel, Pat Gelsinger, en el comunicado de prensa. «A medida que Intel acelera la IA en todas partes, esperamos continuar nuestra colaboración con Articul8». El proyecto que se convertiría en Articul8 ha estado incubando durante dos años en Intel y fue utilizado en Boston Consulting Group, dijo Rich Lesser, presidente global de Boston Consulting Group, en un comunicado de prensa. «Desde entonces, hemos implementado productos Articul8 para múltiples clientes que buscan plataformas listas para producción con un tiempo de comercialización rápido», dijo Lesser. «Estamos entusiasmados con la importante oportunidad que se presenta ante Articul8, que se ve reforzada por esta inversión para acelerar su crecimiento e innovación», dijo Subramaniyan en un correo electrónico a TechRepublic. «Articul8 tiene una importante oportunidad por delante y esta transacción permite a Intel continuar participando en cualquier actividad futura de creación de valor de Articul8». Competidores de Articul8 Otras empresas que trabajan en proporcionar capacidades de implementación y desarrollo de IA generativa completa para empresas incluyen Intel, IBM, HPE, AWS, Dell, Databricks y Google. A medida que más y más empresas buscan casos de uso para la IA generativa, más proveedores de IA de generación están trabajando en la creación de un servicio completo que ofrezca seguridad a nivel empresarial en lugar de los modelos y casos de uso más comerciales y capacitados públicamente.

Source link

Las tendencias en ciberseguridad a tener en cuenta en 2024 incluyen ataques generativos basados ​​en IA

Un informe de noviembre de Google Cloud detalla posibles tácticas de malware de los estados-nación en 2024 y nuevos ángulos de los ciberataques. ¿Cómo será la ciberseguridad en 2024? El Pronóstico de ciberseguridad global de Google Cloud encontró que la IA generativa puede ayudar a los atacantes y defensores e instó al personal de seguridad a estar atento a los ataques respaldados por estados nacionales y más. Entre los contribuyentes al informe se encuentran varios líderes de seguridad de Google Cloud y expertos en seguridad de Mandiant Intelligence, Mandiant Consulting, Chronicle Security Operations, la Oficina del CISO de Google Cloud y VirusTotal. Saltar a: Cómo la IA generativa puede afectar la ciberseguridad en 2024 Los actores de amenazas utilizarán IA generativa y grandes modelos de lenguaje en phishing y otras estafas de ingeniería social, predijo Google Cloud. Debido a que la IA generativa puede crear contenido que suene natural, los empleados pueden tener dificultades para identificar correos electrónicos fraudulentos a través de una mala gramática o llamadas no deseadas a través de voces que suenan robóticas. Los atacantes podrían utilizar IA generativa para crear noticias falsas o contenido falso, advirtió Google Cloud. Más cobertura de seguridad en la nube Los LLM y la IA generativa “se ofrecerán cada vez más en foros clandestinos como un servicio pago y se utilizarán para diversos fines, como campañas de phishing y difusión de desinformación”, escribió Google Cloud. Por otro lado, los defensores pueden utilizar la IA generativa en inteligencia sobre amenazas y análisis de datos. La IA generativa podría permitir a los defensores actuar a mayores velocidades y escalas, incluso cuando digieren grandes cantidades de datos. «La IA ya está brindando una enorme ventaja a nuestros ciberdefensores, permitiéndoles mejorar las capacidades, reducir el trabajo y protegerse mejor contra las amenazas», dijo Phil Venables, director de seguridad de la información de Google Cloud, en un correo electrónico a TechRepublic. Los estados-nación pueden utilizar phishing o malware de limpieza El informe señaló que los actores de los estados-nación pueden lanzar ataques cibernéticos contra el gobierno de EE. UU. a medida que se acercan las elecciones presidenciales de 2024 en EE. UU. El Spear phishing, en particular, puede utilizarse para atacar sistemas electorales, candidatos o votantes. El hacktivismo, o actores de amenazas motivados políticamente y no asociados con un estado-nación en particular, está resurgiendo, dijo Google Cloud. El malware Wiper, que está diseñado para borrar la memoria de una computadora, puede volverse más común. Ha sido visto desplegado por grupos de actores de amenazas rusos que atacan a Ucrania, dijo Google Cloud. La guerra en Ucrania ha demostrado que los atacantes patrocinados por el Estado podrían atacar tecnologías espaciales para perturbar a los adversarios o realizar espionaje. Los grupos de espionaje en 2024 pueden crear “botnets durmientes”, que son botnets colocadas en el Internet de las cosas, en oficinas o en dispositivos al final de su vida útil para escalar temporalmente los ataques. La naturaleza temporal de estas botnets puede hacer que sea particularmente difícil rastrearlas. Los tipos de ciberataques más antiguos siguen siendo amenazas. Algunas de las tendencias destacadas por Google Cloud muestran que los tipos de ciberataques más conocidos todavía deberían estar en el radar de los equipos de seguridad. Las vulnerabilidades de día cero pueden seguir aumentando. Los atacantes de estados-nación y los grupos de actores de amenazas pueden adoptar los días cero porque esas vulnerabilidades les dan a los atacantes acceso persistente a un entorno. Los correos electrónicos de phishing y el malware ahora son relativamente fáciles de detectar para los equipos de seguridad y las soluciones automatizadas, pero las vulnerabilidades de día cero siguen siendo relativamente efectivas, según el informe. La extorsión, otra técnica de ciberataque muy conocida, se estancó en 2022, pero se puede esperar que vuelva a crecer en 2024. Los actores de amenazas hacen publicidad de datos robados y reportan ingresos por extorsión que indican un crecimiento. VER: El malware SecuriDropper puede sortear la configuración restringida de Android 13 para descargar aplicaciones ilegítimas (TechRepublic) Algunas técnicas de amenazas más antiguas se están volviendo lo suficientemente populares como para estar en el radar de Google Cloud. Por ejemplo, recientemente se ha vuelto a ver una técnica anti-máquina virtual de 2012. Y un ataque documentado por primera vez en 2013 que utiliza funciones SystemFunctionXXX no documentadas en lugar de funciones de criptografía en una API de Windows documentada se ha vuelto popular nuevamente. Otras tendencias y predicciones de ciberseguridad en la nube, dispositivos móviles y SecOps El vicepresidente y gerente general de Google Cloud, Sunil Potti, dijo en un correo electrónico a TechRepublic: «En este momento, vemos organizaciones ejecutando sus datos en una combinación de entornos multinube, locales e híbridos, y mientras No es realista esperar que estas organizaciones alojen sus activos únicamente en un solo lugar, lo que hace que las operaciones de seguridad integrales y unificadas y la gestión general de riesgos sean particularmente desafiantes”. En entornos híbridos y multinube, es posible que las empresas deban estar atentas a configuraciones erróneas y problemas de identidad que permitan a los actores de amenazas moverse lateralmente a través de diferentes entornos de nube, dijo Google Cloud. Muchos actores de amenazas, incluidos los actores de amenazas de estados-nación, pueden utilizar servicios sin servidor en 2024. Los servicios sin servidor les brindan mayor escalabilidad, flexibilidad y automatización. Google Cloud ha visto un creciente interés entre los atacantes en los ataques a la cadena de suministro alojados en administradores de paquetes como NPM (Node.js), PyPI (Python) y crates.io (Rust). Es probable que este tipo de ciberataque aumente porque su implementación cuesta poco y puede tener un impacto importante. Es probable que el cibercrimen móvil crezca en 2024 a medida que los estafadores utilicen tácticas de ingeniería social novedosas y probadas para obtener acceso a los teléfonos de sus objetivos, según el informe. Finalmente, Google Cloud predijo que SecOps se consolidará cada vez más en 2024. Esta hoja de ruta se puede utilizar para impulsar estrategias de ciberseguridad y compras al intentar adelantarse a lo que pueda venir en 2024.

Source link

Funciona con WordPress & Tema de Anders Norén