Todo lo que necesitas saber sobre tecnología

Etiqueta: IA generativa Página 7 de 8

Nvidia presenta H200, su nuevo chip de alta gama para entrenar modelos de IA

Jensen Huang, presidente de Nvidia, sosteniendo la CPU con superchip Grace hopper utilizada para la IA generativa en la presentación principal de Supermicro durante Computex 2023. Walid Berrazeg | Cohete ligero | Getty ImagesNvidia presentó el lunes el H200, una unidad de procesamiento de gráficos diseñada para entrenar e implementar los tipos de modelos de inteligencia artificial que están impulsando el auge de la IA generativa. La nueva GPU es una actualización del H100, el chip que OpenAI utilizó para entrenar sus sistemas más avanzados. modelo de lenguaje grande, GPT-4. Grandes empresas, nuevas empresas y agencias gubernamentales compiten por un suministro limitado de chips. Los chips H100 cuestan entre 25.000 y 40.000 dólares, según una estimación de Raymond James, y se necesitan miles de ellos trabajando juntos para crear los modelos más grandes en un proceso. llamado «capacitación». El entusiasmo por las GPU de inteligencia artificial de Nvidia ha sobrealimentado las acciones de la compañía, que han subido más del 230% en lo que va de 2023. Nvidia espera alrededor de $16 mil millones de dólares de ingresos para su tercer trimestre fiscal, un 170% más que hace un año. La mejora clave del H200 es que incluye 141 GB de memoria «HBM3» de próxima generación que ayudará al chip a realizar «inferencias» o utilizar un modelo grande después de haber sido entrenado para generar texto, imágenes o predicciones. Nvidia dijo que el H200 generará produce casi el doble de velocidad que el H100. Esto se basa en una prueba realizada con Llama 2 LLM de Meta. El H200, que se espera que se envíe en el segundo trimestre de 2024, competirá con la GPU MI300X de AMD. El chip de AMD, similar al H200, tiene memoria adicional sobre sus predecesores, lo que ayuda a colocar modelos grandes en el hardware para ejecutar inferencias. Chips Nvidia H200 en un sistema Nvidia HGX de ocho GPU. NvidiaNvidia dijo que el H200 será compatible con el H100. lo que significa que las empresas de IA que ya están entrenando con el modelo anterior no necesitarán cambiar sus sistemas de servidor o software para usar la nueva versión. Nvidia dice que estará disponible en configuraciones de servidor de cuatro GPU u ocho GPU en el HGX completo de la compañía. sistemas, así como en un chip llamado GH200, que combina la GPU H200 con un procesador basado en Arm. Sin embargo, es posible que el H200 no mantenga la corona del chip Nvidia AI más rápido por mucho tiempo. Si bien empresas como Nvidia ofrecen muchas configuraciones diferentes de En sus chips, los nuevos semiconductores a menudo dan un gran paso adelante aproximadamente cada dos años, cuando los fabricantes pasan a una arquitectura diferente que desbloquea ganancias de rendimiento más significativas que agregar memoria u otras optimizaciones más pequeñas. Tanto el H100 como el H200 se basan en la arquitectura Hopper de Nvidia. En octubre, Nvidia dijo a los inversores que pasaría de una cadencia de arquitectura de dos años a un patrón de lanzamiento de un año debido a la alta demanda de sus GPU. La compañía mostró una diapositiva que sugiere que anunciará y lanzará su chip B100, basado en la próxima arquitectura Blackwell, en 2024. MIRAR: Creemos firmemente en la tendencia de la IA que se implementará el próximo año. No se pierda estas historias de CNBC PRO:

Source link

Informe de tendencias de código abierto y nuevos productos de seguridad de IA

GitHub Advanced Security obtiene funciones de IA y GitHub Copilot ahora incluye una opción de chatbot. Se espera que GitHub Copilot Enterprise esté disponible en febrero de 2024. Imagen: Adobe/sdx15 En la conferencia GitHub Universe celebrada en San Francisco y virtualmente los días 8 y 9 de noviembre de 2023, la compañía reveló su nuevo informe de tendencias de código abierto, así como cambios en GitHub Copilot y mejoras de IA para GitHub Advanced Security. GitHub Copilot y GitHub Advanced Security están disponibles a nivel mundial. Sin embargo, algunos servicios de GitHub, incluido Copilot, están sujetos a controles comerciales de EE. UU. y no están disponibles en los países sancionados que se enumeran aquí. Saltar a: La IA generativa es popular entre los proyectos de código abierto Los proyectos de IA generativa de código abierto se unieron a la lista de GitHub de los 10 proyectos de código abierto más populares por número de contribuyentes en 2023. En 2022, alrededor de 17.000 desarrolladores de GitHub trabajaron en proyectos de IA generativa; en 2023, esa cifra se disparó a alrededor de 60.000. Los proyectos de IA se están volviendo más comunes, dijo GitHub. Es probable que en el futuro más organizaciones comiencen a utilizar modelos de IA previamente entrenados a medida que los desarrolladores se familiaricen con ellos, predijo GitHub. Tendencias de Git hacia aplicaciones nativas de la nube a escala GitHub descubrió que los desarrolladores utilizan cada vez más el sistema de control de versiones de Git para lenguajes declarativos que utilizan infraestructura basada en Git como flujos de trabajo de código. El estudio también encontró una mayor estandarización en las implementaciones de la nube y un fuerte aumento en la velocidad a la que los desarrolladores usaban Dockerfiles y contenedores, infraestructura como código y otras tecnologías nativas de la nube. El uso del lenguaje de configuración de Hashicorp (HCL), que es un indicador de operaciones y trabajo de infraestructura como código, creció un 36 % año tras año. El número de nuevos desarrolladores en GitHub creció un 26%, y India tiene la población de desarrolladores de más rápido crecimiento. GitHub define a un desarrollador como cualquier persona con una cuenta de GitHub que no sea spam. Los proyectos de código abierto con respaldo comercial llaman la atención Los proyectos de código abierto con respaldo comercial tuvieron el mayor número de contribuciones y el mayor número de contribuyentes por primera vez. El número de proyectos privados creció un 38% año tras año. Proteger dependencias y sucursales son proyectos populares. En términos de seguridad en código abierto, cada vez más desarrolladores están recurriendo a la automatización para proteger las dependencias, y los mantenedores de código abierto están prestando mucha atención a proteger sus sucursales. El desarrollo front-end es prometedor El desarrollo front-end es un tipo de proyecto de rápido crecimiento entre los desarrolladores de código abierto. GitHub Copilot Chat y GitHub Copilot Enterprise revelados En GitHub Universe, la compañía anunció GitHub Copilot Chat (Figura A), que es un asistente de IA generativa que explica el código en lenguaje natural, y GitHub Copilot Enterprise. GitHub Copilot Chat estará disponible en diciembre de 2023 para los clientes con suscripciones a GitHub Copilot individuales o para toda la organización. Figura A GitHub Copilot Chat explica el código en lenguaje natural. Imagen: GitHub GitHub Copilot Enterprise, personalizado para uso empresarial, llegará en febrero de 2024 a un precio de 39 dólares por usuario al mes. Compare esto con Copilot Business, que cuesta $19 por mes y ya está disponible. Funciones adicionales de IA agregadas a GitHub Advanced Security Cobertura de lectura obligada para desarrolladores Tres funciones más impulsadas por IA llegarán a GitHubAdvanced Security: corrección automática de escaneo de código, escaneo de secretos en busca de secretos genéricos y un generador de expresiones regulares. VER: GitHub no es la única plataforma de colaboración y control de versiones. Consulte las alternativas de GitHub que están floreciendo en 2023. (TechRepublic) “Los desarrolladores necesitan la capacidad de proteger de forma proactiva su código justo donde se crea”, afirmó la vicepresidenta de gestión de productos de GitHub, Asha Chakrabarty, y directora de marketing de productos del laboratorio de seguridad y seguridad de la plataforma de GitHub. Laura Paine, escribió en una publicación de blog. Corrección automática del escaneo de código El escaneo de código ahora propondrá correcciones generadas por IA directamente en la solicitud de extracción, lo que permitirá a los desarrolladores corregir instantáneamente las vulnerabilidades mientras codifican; esto conducirá a un tiempo de remediación más rápido. Se pueden crear correcciones generadas por IA para alertas de CodeQL, JavaScript y TypeScript. Esto funciona cuando GitHub consulta un modelo de lenguaje grande en segundo plano para encontrar correcciones para cualquier alerta nueva, que luego se publica como sugerencias de código dentro de la solicitud de extracción. Autofix ahora está disponible para escanear códigos dentro de GitHub Advanced Security. Escaneo secreto El escaneo secreto con IA generativa, que ahora se encuentra en versión beta pública limitada, está diseñado para reducir los falsos positivos que a menudo surgen al buscar contraseñas posiblemente activas filtradas (Figura B). Figura B El escaneo secreto alerta a los usuarios sobre una contraseña que puede haber sido expuesta. Imagen: GitHub Generador de expresiones regulares El generador de expresiones regulares mejora las opciones de los desarrolladores cuando se trata de escaneo secreto, permitiéndoles crear patrones personalizados con expresiones regulares creadas con algunas consultas en lenguaje natural enviadas a la IA generativa. Está diseñado para agilizar la escritura de expresiones regulares y permite a los desarrolladores realizar ensayos en tiempo real para asegurarse de que todo funcione antes de guardar el patrón. La generación de expresiones regulares ya está disponible. Más características nuevas en GitHub Advanced Security Otras características nuevas de GitHub Advanced Security incluyen la creación de patrones personalizados con IA generativa y un nuevo panel de descripción general de seguridad. El personal de seguridad interesado puede unirse a una lista de espera para estas funciones.

Source link

Columna: La huelga de escritores fue una victoria de los humanos sobre la IA


La histórica huelga de escritores de 146 días finalmente parece haber terminado. Los detalles son escasos, pero el Writers Guild of America suena triunfante: califica el acuerdo de “excepcional” y anuncia ganancias en casi todos los ámbitos. Y aunque hay muchas razones por las que el sindicato finalmente ganó (organización inteligente y un piquete memorable, una fuerte alianza con SAG-AFTRA y errores tácticos cometidos por los ejecutivos del estudio, entre ellos), hay una cosa sobre todo que iluminó la acción: la La forma en que los escritores se negaron a permitir que los jefes usaran la IA para explotarlos. En un momento en que la perspectiva de que los ejecutivos y gerentes usaran la automatización del software para socavar el trabajo en profesiones en todas partes cobraba gran importancia, la huelga se convirtió en una especie de batalla por poderes entre humanos y IA. Fue una batalla que la mayoría del público estaba ansioso por ver ganar a los escritores. No es la única razón por la que los estadounidenses respaldaban abrumadoramente a los escritores de los estudios (según una encuesta de Gallup, el público los apoyaba por encima de los ejecutivos por un sorprendente margen del 72% al 19%), pero era una razón importante. Como lo dirán los participantes de la huelga de cinco meses, las preocupaciones sobre el uso de IA generativa como ChatGPT ni siquiera eran una prioridad cuando los escritores se sentaron por primera vez con los estudios para comenzar a negociar. La primera propuesta de la WGA simplemente establecía que los estudios no usarían IA para generar guiones originales, y fue solo cuando los estudios se negaron rotundamente que se encendieron las banderas rojas. Fue entonces cuando los escritores se dieron cuenta de que los estudios tomaban en serio el uso de IA, si no para generar guiones terminados, algo que ambas partes sabían que era imposible en esta coyuntura, y luego como palanca contra los escritores, tanto como una amenaza como un medio para justificar el ofrecimiento de tarifas de reescritura más bajas. Fue entonces cuando la WGA trazó una línea en la arena, cuando comenzamos a ver carteles en los piquetes que denunciaban a AI que se volvían virales en las redes sociales y titulares que promocionaban el conflicto adornaban periódicos como este. Cada vez que iba a los piquetes, La IA era fácilmente el tema principal que los escritores querían discutir, en gran parte porque parecía una amenaza existencial directa al trabajo de ser guionista. Las opiniones sobre la naturaleza precisa de la amenaza de la IA variaron. Algunos pensaban que la tecnología era una completa basura que no podía escribir un guión que valiera la pena, sin importar las indicaciones que se le dieran, y temían que simplemente se usara como una excusa para reducir los salarios. Otros estaban legítimamente preocupados de que los estudios intentaran usar IA generativa. quitarles el trabajo de todos modos, o que con el tiempo sería lo suficientemente bueno como para producir un producto útil. Si ese fuera el caso, muchos temían lo que se perdería en el proceso: películas y series coloreadas por experiencias de la vida real, que exploraban la experiencia humana. Ya sabes, arte. Había un temor palpable de que los productos tecnológicos, creados por startups ricas y en su mayoría blancas en Silicon Valley, produjeran contenido que reflejara exactamente eso. Independientemente de la naturaleza de la queja, todos estuvieron de acuerdo en entregar a los estudios el poder de decidir cómo utilizar la generación generativa. La IA fue una mala idea. Todos parecían entender la importancia de esa línea roja contra permitir que los jefes automatizaran su trabajo en aras de reducir costos o mejorar la eficiencia. Y la naturaleza de esa resistencia era contagiosa. «Estoy convencido de muchas de las cosas por las que los escritores están en huelga, desde asegurarse de que tengan un número mínimo de escritores en una sala de escritores hasta regular la IA», dijo la actriz y miembro del SAG Ellen Adair al periodista laboral Alex Press. en los primeros días de la huelga. Cuando quedó claro que los estudios estaban tan interesados ​​en automatizar la actuación como lo estaban escribiendo (los estudios supuestamente querían el derecho a usar la captura de movimiento para escanear a los actores de fondo y usar sus imágenes a perpetuidad), los actores rechazado también; La SAG se declaró en huelga en julio. Grandes celebridades como Bryan Cranston y el negociador del SAG Fran Drescher se pronunciaron en contra de la IA, haciendo causa común. La línea roja que trazaron los escritores fue claramente inspiradora y unificadora; no solo entre los actores de la pantalla que enfrentaron temores similares, sino también entre todos aquellos que miraban los titulares pregonando una inminente adquisición de la IA, o leían memorandos de sus gerentes anunciando iniciativas para explorar el uso de la IA en sus lugares de trabajo. Eso incluye a todos los ilustradores, periodistas y redactores que han estado observando con nerviosismo cómo su trabajo parecía agotarse a medida que la gerencia adoptaba herramientas como Midjourney y Bard. Entonces sucedió algo curioso. Observadores, periodistas e incluso los propios trabajadores de Hollywood comenzaron a referirse a los huelguistas como luditas. Los verdaderos luditas; no las caricaturas. La cultura estadounidense se ha burlado durante mucho tiempo de cualquiera que proteste contra la tecnología llamándolo ludita. Se supone que significa «ignorante» o «mirando hacia atrás», pero todo eso está mal. Empresas como Wired y Fast Co. llamaban luditas a los manifestantes en un sentido favorable, porque cada vez más personas entienden que los verdaderos luditas no se oponían a la tecnología en sí, sino a la forma en que se usaba y contra quién se usaba. He pasado los últimos cinco años investigando y escribiendo sobre esos luditas reales, por lo que puedo asegurarles que eran trabajadores inteligentes y conocedores de la tecnología que vieron a los empresarios tratando de automatizar sus trabajos o reemplazarlos con máquinas, y respondieron con fuerza. sólo después de que fracasaran los esfuerzos pacíficos para frenar la “maquinaria perjudicial para los intereses comunes”. Estaban bien con la mayoría de la tecnología, pero trazaron una línea en las cosas que las explotaban con el único propósito de enriquecer a otra. Como tal, al trazar esa línea roja contra la IA, una táctica que resultó tan exitosa, los escritores sacaron una página de el manual ludita de la vieja escuela. Y, al igual que los luditas de principios de la Revolución Industrial, que durante un tiempo fueron tan queridos en Inglaterra como Robin Hood, resultó extremadamente popular. También vale la pena celebrarlo, ya que supongo que esto es sólo el comienzo. Hollywood está lejos de ser la única industria ansiosa por reducir costos automatizando el trabajo con IA generativa. Desde el comienzo de la huelga, he argumentado que los escritores están liderando el camino al mostrar a los trabajadores de todo el mundo cómo resistir los usos potencialmente explotadores de la IA en el mundo. lugar de trabajo, y ahora, más que nunca, se ha demostrado que eso es cierto. Hay un gran poder en trazar una línea dura, en negarse a permitir que un jefe use la tecnología para borrar su trabajo, en hablar sobre cómo le gustaría o no que la tecnología moldeara su vida. Y, si parece que sólo va a degradar o alterar su forma de vida, decir no tiene un gran poder. Pregúntale a los escritores.

Source link

Google, Intel y Nvidia luchan en la formación en IA generativa


La prueba pública líder de manzanas con manzanas sobre la capacidad de los sistemas informáticos para entrenar redes neuronales de aprendizaje automático ha entrado de lleno en la era de la IA generativa. A principios de este año, MLPerf agregó una prueba para entrenar modelos de lenguaje grandes (LLM), GPT-3 en particular. Este mes agrega Stable Diffusion, un generador de texto a imagen. Las computadoras con tecnología Intel y Nvidia tomaron el nuevo punto de referencia. Y los rivales continuaron su batalla anterior en el entrenamiento de GPT-3, donde Google se unió a ellos. Los tres dedicaron enormes sistemas a la tarea (la supercomputadora de 10.000 GPU de Nvidia fue la más grande jamás probada) y ese tamaño es necesario en la IA generativa. Incluso el sistema más grande de Nvidia habría necesitado ocho días de trabajo para completar completamente su trabajo de LLM. En total, 19 empresas e instituciones presentaron más de 200 resultados, lo que mostró un aumento de rendimiento de 2,8 veces en los últimos cinco meses y un aumento de 49 veces. desde que MLPerf comenzó hace cinco años. Nvidia y Microsoft prueban monstruos de 10,752 GPU. Nvidia continuó dominando las pruebas de MLPerf con sistemas fabricados con sus GPU H100. Pero la guinda del pastel fueron los resultados de Eos, la nueva supercomputadora de IA de 10.752 GPU de la compañía. Al doblar todas esas GPU para la tarea del punto de referencia de entrenamiento GPT-3, Eos hizo el trabajo en poco menos de 4 minutos. La división de computación en la nube de Microsoft, Azure, probó un sistema exactamente del mismo tamaño y quedó detrás de Eos por apenas unos segundos. (Azure impulsa el asistente de codificación CoPilot de GitHub y ChatGPT de OpenAI). Las GPU de Eos son capaces de realizar un total de 42,6 mil millones de billones de operaciones de punto flotante por segundo (exaflops). Y están unidos mediante interconexiones (Quantum-2 Infiniband de Nvidia) que transportan 1,1 millones de billones de bytes por segundo. «Algunas de estas velocidades y transmisiones son alucinantes», dice Dave Salvatore, director de evaluación comparativa de IA y computación en la nube de Nvidia. “Esta es una máquina increíblemente capaz”. Eos triplica la cantidad de GPU H100 que se han integrado en una sola máquina. Ese aumento de tres veces supuso una mejora del rendimiento de 2,8 veces, o una eficiencia de escalado del 93 por ciento. El escalado eficiente es clave para la mejora continua de la IA generativa, que se ha multiplicado por diez cada año. El punto de referencia GPT-3 que abordó Eos no es una capacitación completa de GPT-3, porque MLPerf quería que estuviera al alcance de muchas empresas. En cambio, implica entrenar el sistema hasta un cierto punto de control que demuestre que el entrenamiento habría alcanzado la precisión necesaria con el tiempo suficiente. Y estas capacitaciones toman tiempo. Extrapolando los 4 minutos de Eos significa que se necesitarían 8 días para completar el entrenamiento, y eso es en lo que podría ser la supercomputadora de IA más poderosa construida hasta ahora. Una computadora de tamaño más razonable (512 H100) tomaría 4 meses. Intel continúa cerrando en Intel presentó resultados para sistemas que utilizan el chip acelerador Gaudi 2 y para aquellos que no tenían ningún acelerador, confiando únicamente en su CPU Xeon de cuarta generación. El gran cambio con respecto al último conjunto de puntos de referencia de capacitación fue que la compañía había habilitado las capacidades de punto flotante de 8 bits (FP8) de Gaudi 2. El uso de números de menor precisión, como FP8, ha sido responsable de la mayor parte de la mejora en el rendimiento de la GPU en los últimos 10 años. El uso de FP8 en partes de GPT-3 y otras redes neuronales de transformadores donde su baja precisión no afectará la precisión ya ha mostrado su valor en los resultados H100 de Nvidia. Ahora Gaudi 2 está viendo el impulso. “Proyectamos una ganancia del 90 por ciento” al encender el FP8, dice Eitan Medina, director de operaciones de Intel Habana Labs. «Hemos entregado más de lo prometido: una reducción del 103 por ciento en el tiempo de entrenamiento para un grupo de 384 aceleradores». Ese nuevo resultado coloca al sistema Gaudi 2 a poco menos de un tercio de la velocidad de un sistema Nvidia en un por chip y tres veces más rápido que el TPUv5e de Google. En el punto de referencia de nueva generación de imágenes, Gaudi 2 también tenía aproximadamente la mitad de velocidad que el H100. GPT-3 fue el único punto de referencia que FP8 se habilitó para esta ronda, pero Medina dice que su equipo está trabajando para activarlo para otros ahora. Medina continuó argumentando que Gaudi 2 tiene un precio significativamente más bajo que el H100, por lo que tiene una ventaja en una métrica combinada de precio y rendimiento. Medina espera que la ventaja aumente con la próxima generación del chip acelerador Intel, Gaudi 3. Ese chip se producirá en volumen en 2024 y se construirá utilizando el mismo proceso de fabricación de semiconductores que la Nvidia H100. Por otra parte, Intel presentó resultados para sistemas basados ​​en sólo en CPU. Nuevamente, se muestran tiempos de entrenamiento de entre minutos y horas para varios puntos de referencia. Más allá de los puntos de referencia MLPerf, Intel también compartió algunos datos que muestran que un sistema Xeon de 4 nodos, cuyos chips incluyen el motor de matriz AMX, puede ajustar la difusión estable del generador de imágenes en menos de cinco minutos. El ajuste fino toma una red neuronal ya entrenada y la especializa en una tarea determinada. Por ejemplo, la IA del diseño de chips de Nvidia es un ajuste fino de un modelo de lenguaje grande existente llamado NeMo. Puede ver todos los resultados aquí. De los artículos de su sitio Artículos relacionados en la Web

Source link

Google presenta IA generativa para anunciantes

Google está introduciendo nuevas herramientas de inteligencia artificial para facilitar la creación de anuncios a las empresas. Esta nueva tecnología será útil tanto para agencias de publicidad como para empresas sin equipos creativos dedicados. Estas herramientas cubren varios elementos de la creación de anuncios, incluidos titulares, descripciones e imágenes. Los anunciantes pueden utilizar indicaciones de texto para realizar ajustes hasta lograr el resultado deseado. Google asegura que no producirá imágenes idénticas para evitar situaciones en las que las empresas competidoras terminen con las mismas imágenes. Este creador de anuncios paso a paso es parte del producto de campaña publicitaria Performance Max de Google, que atiende a plataformas como búsqueda y compras. También incluye una solución avanzada de edición de imágenes similar a las funciones de Magic Editor que se encuentran en el teléfono inteligente Pixel 8. Los anuncios generativos de IA de Google harán que la publicidad sea mucho más fácil. Este enfoque ofrece flexibilidad para que las empresas adapten y personalicen imágenes para diferentes escenarios. Los usuarios pueden actualizar los anuncios visuales existentes conservando los elementos esenciales. Por ejemplo, un usuario podría reutilizar un modelo que presenta un producto para el cuidado de la piel pero reemplazar el fondo con un árbol de Navidad para publicidad con temas navideños. Las herramientas de inteligencia artificial también permiten la generación de variaciones de anuncios para diversas situaciones. Los minoristas que utilicen Merchant Center Next, una herramienta que controla la apariencia del producto en Google, tendrán acceso a estas herramientas generativas de IA. Para mantener la transparencia, todo el contenido publicitario generado por IA llevará SynthID, una marca de agua de metadatos que identifica el contenido creado con tecnología de IA. La iniciativa de Google tiene como objetivo simplificar el proceso de creación de anuncios, haciéndolo accesible a una gama más amplia de empresas, independientemente de sus capacidades creativas. Noticias de la semana de Gizchina Conclusión La introducción de estas herramientas de inteligencia artificial subraya el compromiso de Google de democratizar el proceso de creación de anuncios. Con esto, Google pretende ofrecer a las empresas soluciones potentes pero fáciles de usar. Al combinar IA generativa para texto e imágenes, los anunciantes pueden realizar cambios de manera eficiente en el contenido de sus anuncios hasta lograr resultados atractivos. La inclusión de una solución avanzada de edición de imágenes amplía las posibilidades creativas, permitiendo a las empresas actualizar sus imágenes manteniendo un mensaje de marca coherente. Para los minoristas, en particular aquellos que utilizan Merchant Center Next, la integración de estas herramientas de inteligencia artificial ofrece una experiencia perfecta para administrar y mejorar las presentaciones de sus productos en las plataformas de Google. Como parte de este esfuerzo, Google se asegura de que el contenido generado por IA esté marcado con SynthID, promoviendo la transparencia y la responsabilidad en el panorama publicitario.

Source link

Las tendencias en ciberseguridad a tener en cuenta en 2024 incluyen ataques generativos basados ​​en IA

Un informe de noviembre de Google Cloud detalla posibles tácticas de malware de los estados-nación en 2024 y nuevos ángulos de los ciberataques. ¿Cómo será la ciberseguridad en 2024? El Pronóstico de ciberseguridad global de Google Cloud encontró que la IA generativa puede ayudar a los atacantes y defensores e instó al personal de seguridad a estar atento a los ataques respaldados por estados nacionales y más. Entre los contribuyentes al informe se encuentran varios líderes de seguridad de Google Cloud y expertos en seguridad de Mandiant Intelligence, Mandiant Consulting, Chronicle Security Operations, la Oficina del CISO de Google Cloud y VirusTotal. Saltar a: Cómo la IA generativa puede afectar la ciberseguridad en 2024 Los actores de amenazas utilizarán IA generativa y grandes modelos de lenguaje en phishing y otras estafas de ingeniería social, predijo Google Cloud. Debido a que la IA generativa puede crear contenido que suene natural, los empleados pueden tener dificultades para identificar correos electrónicos fraudulentos a través de una mala gramática o llamadas no deseadas a través de voces que suenan robóticas. Los atacantes podrían utilizar IA generativa para crear noticias falsas o contenido falso, advirtió Google Cloud. Más cobertura de seguridad en la nube Los LLM y la IA generativa “se ofrecerán cada vez más en foros clandestinos como un servicio pago y se utilizarán para diversos fines, como campañas de phishing y difusión de desinformación”, escribió Google Cloud. Por otro lado, los defensores pueden utilizar la IA generativa en inteligencia sobre amenazas y análisis de datos. La IA generativa podría permitir a los defensores actuar a mayores velocidades y escalas, incluso cuando digieren grandes cantidades de datos. «La IA ya está brindando una enorme ventaja a nuestros ciberdefensores, permitiéndoles mejorar las capacidades, reducir el trabajo y protegerse mejor contra las amenazas», dijo Phil Venables, director de seguridad de la información de Google Cloud, en un correo electrónico a TechRepublic. Los estados-nación pueden utilizar phishing o malware de limpieza El informe señaló que los actores de los estados-nación pueden lanzar ataques cibernéticos contra el gobierno de EE. UU. a medida que se acercan las elecciones presidenciales de 2024 en EE. UU. El Spear phishing, en particular, puede utilizarse para atacar sistemas electorales, candidatos o votantes. El hacktivismo, o actores de amenazas motivados políticamente y no asociados con un estado-nación en particular, está resurgiendo, dijo Google Cloud. El malware Wiper, que está diseñado para borrar la memoria de una computadora, puede volverse más común. Ha sido visto desplegado por grupos de actores de amenazas rusos que atacan a Ucrania, dijo Google Cloud. La guerra en Ucrania ha demostrado que los atacantes patrocinados por el Estado podrían atacar tecnologías espaciales para perturbar a los adversarios o realizar espionaje. Los grupos de espionaje en 2024 pueden crear “botnets durmientes”, que son botnets colocadas en el Internet de las cosas, en oficinas o en dispositivos al final de su vida útil para escalar temporalmente los ataques. La naturaleza temporal de estas botnets puede hacer que sea particularmente difícil rastrearlas. Los tipos de ciberataques más antiguos siguen siendo amenazas. Algunas de las tendencias destacadas por Google Cloud muestran que los tipos de ciberataques más conocidos todavía deberían estar en el radar de los equipos de seguridad. Las vulnerabilidades de día cero pueden seguir aumentando. Los atacantes de estados-nación y los grupos de actores de amenazas pueden adoptar los días cero porque esas vulnerabilidades les dan a los atacantes acceso persistente a un entorno. Los correos electrónicos de phishing y el malware ahora son relativamente fáciles de detectar para los equipos de seguridad y las soluciones automatizadas, pero las vulnerabilidades de día cero siguen siendo relativamente efectivas, según el informe. La extorsión, otra técnica de ciberataque muy conocida, se estancó en 2022, pero se puede esperar que vuelva a crecer en 2024. Los actores de amenazas hacen publicidad de datos robados y reportan ingresos por extorsión que indican un crecimiento. VER: El malware SecuriDropper puede sortear la configuración restringida de Android 13 para descargar aplicaciones ilegítimas (TechRepublic) Algunas técnicas de amenazas más antiguas se están volviendo lo suficientemente populares como para estar en el radar de Google Cloud. Por ejemplo, recientemente se ha vuelto a ver una técnica anti-máquina virtual de 2012. Y un ataque documentado por primera vez en 2013 que utiliza funciones SystemFunctionXXX no documentadas en lugar de funciones de criptografía en una API de Windows documentada se ha vuelto popular nuevamente. Otras tendencias y predicciones de ciberseguridad en la nube, dispositivos móviles y SecOps El vicepresidente y gerente general de Google Cloud, Sunil Potti, dijo en un correo electrónico a TechRepublic: «En este momento, vemos organizaciones ejecutando sus datos en una combinación de entornos multinube, locales e híbridos, y mientras No es realista esperar que estas organizaciones alojen sus activos únicamente en un solo lugar, lo que hace que las operaciones de seguridad integrales y unificadas y la gestión general de riesgos sean particularmente desafiantes”. En entornos híbridos y multinube, es posible que las empresas deban estar atentas a configuraciones erróneas y problemas de identidad que permitan a los actores de amenazas moverse lateralmente a través de diferentes entornos de nube, dijo Google Cloud. Muchos actores de amenazas, incluidos los actores de amenazas de estados-nación, pueden utilizar servicios sin servidor en 2024. Los servicios sin servidor les brindan mayor escalabilidad, flexibilidad y automatización. Google Cloud ha visto un creciente interés entre los atacantes en los ataques a la cadena de suministro alojados en administradores de paquetes como NPM (Node.js), PyPI (Python) y crates.io (Rust). Es probable que este tipo de ciberataque aumente porque su implementación cuesta poco y puede tener un impacto importante. Es probable que el cibercrimen móvil crezca en 2024 a medida que los estafadores utilicen tácticas de ingeniería social novedosas y probadas para obtener acceso a los teléfonos de sus objetivos, según el informe. Finalmente, Google Cloud predijo que SecOps se consolidará cada vez más en 2024. Esta hoja de ruta se puede utilizar para impulsar estrategias de ciberseguridad y compras al intentar adelantarse a lo que pueda venir en 2024.

Source link

Investigación de Samsung revela IA generativa Samsung Gauss

El modelo de lenguaje grande Samsung Gauss puede ayudar con la escritura de código y el análisis de documentos. Samsung Research ha revelado un asistente de IA generativa llamado Samsung Gauss que el grupo de investigación utiliza internamente pero que eventualmente puede aparecer en los teléfonos de consumo de Samsung. Samsung Gauss tiene como objetivo mejorar la eficiencia del trabajo al hacer que redactar correos electrónicos, escribir código y generar imágenes sea más fácil y rápido. Samsung Research presentó detalles sobre Gauss en el segundo día del Samsung AI Forum 2023 el 8 de noviembre de 2023 en Gyeonggi-do, Corea. La IA en los dispositivos se ha convertido rápidamente en una herramienta imprescindible para los principales fabricantes de tecnología. Gauss de Samsung competirá con Google Assistant, que se ejecuta en dispositivos Pixel y Llama 2 de Meta, que estará integrado en ciertos teléfonos inteligentes y PC con tecnología Qualcomm a partir de 2024. Saltar a: ¿Qué es Samsung Gauss? Samsung Gauss es un modelo de lenguaje grande asociado con varias tecnologías de inteligencia artificial integradas para dispositivos móviles Samsung. Samsung Gauss se incluirá en «… una variedad de aplicaciones de productos Samsung…» en un futuro próximo, dijo Samsung Research en una publicación de blog. El Korea Times dijo que Gauss podría aparecer por primera vez en el Samsung Galaxy S24 a principios de 2024. Por ahora, el grupo de investigación de Samsung está utilizando Gauss para «… la productividad de los empleados». VER: ¿Cambiar de un iPhone de Apple a un teléfono Samsung Galaxy? Samsung crea una herramienta de transferencia sencilla. (TechRepublic) Samsung Gauss lleva el nombre de Carl Friedrich Gauss, el matemático que desarrolló la teoría de la distribución normal, que es una parte clave del aprendizaje automático y la inteligencia artificial. «El nombre refleja la visión fundamental de Samsung para los modelos, que consiste en aprovechar todos los fenómenos y conocimientos del mundo para aprovechar el poder de la IA para mejorar las vidas de los consumidores en todo el mundo», afirmó Samsung Research en la publicación del blog. ¿Cuáles son las diversas capacidades de los tres modelos Samsung Gauss? Samsung Gauss tiene tres modelos con diferentes capacidades: Samsung Gauss Language es un modelo de lenguaje generativo que puede redactar correos electrónicos, resumir documentos y traducir contenido. Se puede integrar en el control del dispositivo. (Samsung actualmente cuenta con Bixby para el control por voz de dispositivos móviles). Samsung Gauss Code es una herramienta de desarrollo de software que puede realizar funciones como descripción de código y generación de casos de prueba. Samsung Gauss Code habilita code.i, un asistente de codificación. Samsung Gauss Image crea o mejora imágenes. Samsung ofrece garantías con respecto a la seguridad Samsung, que prohibió temporalmente a sus empleados el uso de productos de IA generativa, incluidos ChatGPT de OpenAI y Bard de Google a principios de este año después de una filtración de datos interna, enfatizó en el comunicado de prensa que su Equipo Rojo de IA está trabajando arduamente en seguridad. El equipo de seguridad monitorea la IA en busca de cuestiones éticas y de privacidad que incluyen «… recopilación de datos para el desarrollo de modelos de IA, implementación de servicios y resultados generados por IA…», escribió Samsung Research en su publicación de blog. Nota: TechRepublic se comunicó con Samsung Research para obtener más información sobre Samsung Gauss.

Source link

iOS 18 es demasiado problemático y obliga a Apple a pausar la adición de funciones

Apple lanzó iOS 17 para iPhone no hace mucho. Y si bien la actualización agregó mejoras monumentales, desde el principio también estuvo plagada de muchos errores y problemas que continúan solucionándose. Como resultado, Apple aparentemente dejó de agregar nuevas funciones con el iOS 18 del próximo año y se centró en mejorar el rendimiento del próximo software. Aunque todavía faltan varios meses para la vista previa de iOS 18, eso no significa que no recibamos actualizaciones relevantes sobre el software. El prolífico Mark Gurman de Bloomberg ahora informa que Apple ha dado prioridad a corregir los errores en la primera versión desarrollada de iOS 18 que comenzó la semana pasada. Agregó que se suponía que el fabricante de iPhone comenzaría con la siguiente etapa de desarrollo de iOS 18, donde debería introducir más funciones. Sin embargo, en su revisión reciente se descubrió que la primera versión generaba numerosos errores que afectaban la calidad general del firmware. El A16 Bionic, junto con 6 GB de RAM LPDDR5, ofrece un rendimiento constante. / © nextpit En consecuencia, esta fue razón suficiente para que los ejecutivos de software de Apple decidieran e implementaran una semana para eliminar únicamente los problemas molestos y limpiar todo. Se dijo que la firma tecnológica de Cupertino planea levantar el paro esta semana y continuar con su segunda etapa de desarrollo al mismo tiempo. Además de iOS 18, tanto watchOS 11 como macOS 15, que son actualizaciones de watchOS 10 y macOS Sonoma, respectivamente, también se ven afectados por una cantidad comparable de problemas preocupantes. Sin embargo, se cree que el trabajo para las dos plataformas será en paralelo con iOS 18 y debería continuar en cualquier momento de esta semana. No está claro si el obstáculo actual retrasará la fecha de lanzamiento de iOS 18. Se espera que Apple anuncie el software en la próxima WWDC en junio de 2024, mientras que los próximos iPhone 16 y iPhone 16 Pro deberían arrancar según él. Aparte de las capacidades de IA generativa o tipo ChatGPT, se sabe muy poco sobre las nuevas características de iOS 18. Oferta de afiliado ¿Crees que Apple no ha hecho el suficiente esfuerzo para preparar completamente su software recientemente? ¿Y cómo ha sido tu experiencia con iOS 17 hasta ahora? Dispáranos con tus respuestas en la sección de comentarios.

Source link

Las funciones de inteligencia artificial del Samsung Galaxy S24 podrían venir como un servicio pago

Con el iPhone 15 (revisión) ya dominando el podio de los teléfonos inteligentes premium, Samsung podría necesitar más que un buen hardware con el Galaxy S24 para contrarrestar el dominio de Apple. Es por eso que se rumorea que traerán características de software prometedoras, como el uso de IA, a sus próximos buques insignia. Sin embargo, parece que esta incorporación podría tener un precio adicional. Anteriormente se informó que el Galaxy S24 y el Galaxy S24 Ultra podrían debutar con funciones de IA generativa en el dispositivo, como la creación de texto a imagen y la entrada de comandos de voz complejos, entre otras. Esto es posible gracias al SoC Snapdragon 8 Gen 3 que incorpora grandes capacidades de aprendizaje automático. También se dice que el chip Exynos 2400 que alimenta algunas otras variantes de dispositivos regionales tiene una potencia informática de IA comparable. En X (anteriormente Twitter), el filtrador frecuente Tech_Reve especula que Samsung podría estar planeando lanzar funciones de inteligencia artificial en el Galaxy S24 detrás de un muro de pago. Si se materializa, eso significa que la función solo será accesible para suscriptores de pago y no para usuarios habituales del Galaxy S24. ¿Más funciones exclusivas del Samsung Galaxy S24 Ultra? En cuanto a la autenticidad del reclamo, no hay otra información actual que lo respalde. Sin embargo, podemos hacer referencia a que Google actualmente está limitando algunas habilidades de IA generativa en el Pixel 8 Pro (revisión) y no con los otros modelos de Pixel. Además, el gigante de las búsquedas también utiliza la nube e Internet para procesar los datos en lugar del procesamiento en el dispositivo. El renderizado del Samsung Galaxy S24 Ultra muestra un módulo de cámara avanzado. / © On Leaks Es posible que la generación en el dispositivo del Galaxy S24 sea una ventaja clave de por qué los coreanos apuestan por el servicio de IA basado en suscripción. Pero nuevamente, esto parece ser un movimiento contraproducente por parte de Samsung. Alternativamente, Samsung podría hacer que las funciones de IA sean exclusivas de su modelo de gama alta Galaxy S24 Ultra, reflejando la estrategia de Google. Además del uso de IA, el Samsung Galaxy S24 tiene lados planos y el Ultra aprovecha el marco de titanio. También hay cámaras actualizadas y mensajería satelital bidireccional para el trío junto con baterías más grandes en los modelos estándar Galaxy S24. Oferta de afiliado ¿Espera que la IA generativa sea una adición notable al Galaxy S24? ¿Estás dispuesto a pagar por usarlo? Comparte con nosotros tus pensamientos en los comentarios.

Source link

OpenAI anuncia GPT-4 Turbo y GPT Tool Builder Store

GPT-4 Turbo, que está en versión preliminar para desarrolladores, puede solicitar información tan reciente como abril de 2023. Y OpenAI reveló una nueva forma para que los desarrolladores creen herramientas de inteligencia artificial. En la presentación principal de la primera conferencia DevDay de OpenAI, celebrada el 6 de noviembre de 2023 en San Francisco, OpenAI anunció una versión nueva y más potente de GPT-4, herramientas de IA generativa especializadas llamadas GPT y una API de asistentes para ayudar a los desarrolladores a crear aplicaciones de IA. Además, OpenAI anunció que ChatGPT con GPT4 Turbo podrá extraer información de eventos actuales tan recientes como abril de 2023. Saltar a: GPT-4 Turbo puede digerir más información que GPT-4 a un precio más bajo. GPT-4 Turbo agrega estos nuevos Capacidades para GPT-4: longitud de contexto de 128.000 tokens, o 300 páginas de un libro estándar. Más control para los desarrolladores, incluido un modo JSON, la capacidad de llamar a múltiples funciones a la vez, registrar probabilidades y resultados reproducibles. Conocimiento mundial hasta abril de 2023. Límites de tarifas más altos. GPT-4 Turbo costará un centavo por 1000 tokens de entrada y tres centavos por 1000 tokens de salida, más barato que GPT-4, dijo el director ejecutivo de OpenAI, Sam Altman (Figura A). Figura A El director ejecutivo de OpenAI, Sam Altman, resume los anuncios del DevDay de OpenAI el 6 de noviembre de 2023 en San Francisco. Imagen: TechRepublic «Decidimos priorizar los costos primero porque necesitamos hacer uno u otro, pero ahora estamos trabajando en la velocidad», dijo Altman durante la presentación principal. GPT-4 Turbo está disponible hoy en versión preliminar para desarrolladores con una suscripción a OpenAI. OpenAI espera que GPT-4 Turbo esté listo para producción en las próximas semanas. ChatGPT utilizará GPT-4 Turbo en una implementación gradual a partir de hoy. En el momento de escribir este artículo, GP-3.5 también mostró una actualización de conocimientos hasta enero de 2022. VER: OpenAI estuvo entre las organizaciones que firmaron una lista voluntaria de garantías de seguridad de IA con el gobierno de EE. UU. en septiembre. (TechRepublic) Otro cambio que los usuarios de ChatGPT verán hoy es que el selector de modelo ya no es un menú desplegable; en cambio, ChatGPT elige automáticamente qué modelo y modalidad, incluidas imágenes de DALL-E 3 y texto a voz, usar según la solicitud del usuario. Los desarrolladores podrán crear y vender herramientas de IA personalizadas conocidas como GPT. Además de mencionar el objetivo declarado de OpenAI de AGI (inteligencia artificial general hipotética, o IA, que es más inteligente que los humanos), Altman enfatizó que el objetivo para el futuro de la empresa es Permitir agentes de IA personalizados para combinar habilidades específicas. Con ese fin, OpenAI está lanzando GPT, que son versiones personalizadas de ChatGPT (Figura B). Figura B El director ejecutivo de OpenAI, Sam Altman, demostró la creación de un GPT el 6 de noviembre de 2023 durante el discurso de apertura de OpenAI DevDay en San Francisco. Imagen: Los GPT de TechRepublic se pueden diseñar, personalizar y vender en un mercado llamado GPT Store, que se abrirá a finales de este mes (Figura C). Figura C Una maqueta de la página principal de la Tienda GPT. Imagen: Los creadores de OpenAI pueden obtener ingresos de sus GPT en función de la popularidad de los GPT. Canva y Zapier recibieron acceso temprano al creador de GPT y lanzaron sus propios GPT. En ChatGPT Enterprise, los usuarios podrán crear GPT que solo se puedan compartir dentro de su organización. Los GPT estarán disponibles en ChatGPT Enterprise el miércoles 8 de noviembre. OpenAI enfatizó que las conversaciones en ChatGPT Enterprise no se utilizan para la capacitación de modelos. La IA de diseño generativo automatizará el 60% del esfuerzo de diseño de nuevos sitios web y aplicaciones móviles para 2026, predijo Gartner en su Market Databook 2023. La API de Asistentes ahora está disponible en versión beta. Más cobertura de IA de lectura obligada. OpenAI también anunció la API de Asistentes, una herramienta para crear aplicaciones generativas basadas en IA que reúne capacidades como el intérprete de código, la recuperación y la llamada de funciones de OpenAI. La API de Asistentes se basa en la misma base que los GPT, con herramientas adicionales. Con la API de Asistentes, los desarrolladores pueden agregar IA generativa a sus aplicaciones y servicios existentes. Por ejemplo, OpenAI Code Interpreter puede escribir y generar código y crear archivos. En la conferencia magistral, OpenAI demostró un asistente de voz que realiza cambios en las cuentas OpenAI de los usuarios en vivo. La API de Asistentes está en versión beta hoy; Los detalles de precios están disponibles en el sitio de OpenAI. El acceso a la API de OpenAI está disponible a nivel internacional. Los datos y archivos utilizados con la API de OpenAI no se utilizan para entrenar modelos de IA, dijo OpenAI. Altman dijo que ve esta API de Asistentes como un precursor de los agentes de IA, que cree que gradualmente podrán actuar por sí solos a medida que se vuelvan más capaces. Nota: TechRepublic vio virtualmente el discurso de apertura del DevDay de OpenAI.

Source link

Página 7 de 8

Funciona con WordPress & Tema de Anders Norén