Todo lo que necesitas saber sobre tecnología

Etiqueta: IA generativa Página 7 de 8

Dell presenta nuevas computadoras portátiles XPS 13, 14 y 16

Dell mostró las próximas versiones de su línea de computadoras portátiles XPS el jueves antes de CES 2024, con tamaños nuevos y más grandes e integración de inteligencia artificial. Los nuevos Dell XPS 13, 14 y 16 vendrán con las teclas Windows Copilot de Microsoft para acceder fácilmente a las funciones de IA generativa. Saltar a: Detalles sobre las tres nuevas computadoras portátiles XPS de Dell Los nuevos modelos de computadoras portátiles XPS de Dell son sucesores del XPS 13 Plus del año pasado. El XPS 13 Plus pasó a llamarse XPS 13 y se agregaron a la línea modelos XPS 14 y 16 más grandes. Al igual que el XPS 13 Plus, los diseños de estas computadoras portátiles se centran en la suavidad y las superficies sensibles al tacto. La fila de funciones táctiles encima del teclado controla tanto los medios como las teclas de función, mientras que el panel táctil se integra suavemente con el resto del cuerpo gracias al vidrio sin costuras. La pantalla utiliza los modernos paneles InfinityEdge de Dell e incluye opciones táctiles OLED, frecuencias de actualización variables, opciones de alta resolución y Dolby Vision. VER: Dell ha estado trabajando en IA generativa de fácil acceso durante el último año, incluida la asociación con NVIDIA. (TechRepublic) El XPS 13 comienza en $1,299 en los EE. UU. y estará disponible pronto, dijo Dell. Es posible que eso signifique pronto entre febrero y finales de la primavera de 2024, porque es entonces cuando Microsoft dijo que varios socios lanzarán computadoras portátiles con el botón Windows para Copilot. La Dell XPS 16 es la nueva entrada de alta potencia en la línea de computadoras portátiles XPS. Ejecuta procesadores Intel Core Ultra y GPU NVIDIA GeForce RTX (hasta la GPU GeForce RTX 4050). El Dell XPS 16 es adecuado y evaluado oficialmente por NVIDIA para renderizado 3D, edición de video y transmisión en vivo, al igual que la línea Dell XPS 14. XPS 16 tendrá un precio inicial de $1,899 en los EE. UU. y estará disponible pronto. El Dell XPS 14 es un 21% más liviano que el XPS 16, según Dell, pero aún es valorado para edición, juegos y transmisión de alto rendimiento. La computadora portátil Dell XPS 14 tendrá un precio inicial de $1,699. Más cobertura de IA de lectura obligada Los nuevos modelos de computadoras portátiles cuentan con un motor de aceleración de IA Como lo hacen la mayoría de los fabricantes de dispositivos hoy en día, Dell está enfatizando que la IA generativa puede ejecutarse en sus computadoras portátiles, y en el dispositivo. La línea de portátiles XPS de Dell cuenta con un motor de aceleración de IA integrado con una unidad de procesamiento neuronal para tareas que incluyen la edición de fotografías. La nueva línea XPS se ejecuta en Windows 11, que viene con el asistente de IA generativa Copilot para Windows. Competidores de la línea de portátiles XPS de Dell El principal competidor de Dell de sus portátiles XPS es la línea MacBook Pro de Apple, que comparte algunos de los mismos tamaños y una apariencia elegante. HP, Lenovo, Microsoft y Acer ofrecen productos similares. Notas editoriales: Nos comunicamos con Dell para solicitar comentarios. Además, TechRepublic cubre CES 2024 de forma remota.

Source link

iPhone y iPad contarán con asistente de IA generativa a través de Microsoft Copilot

Si bien Apple aún tiene que introducir su propio asistente de IA generativa en su gama de dispositivos, empresas como Open AI y Google ya han encontrado formas de infundir su IA en los productos de Apple. El último en hacerlo es Microsoft, que ha lanzado su aplicación Copilot para iPhone y iPad. Si ha estado esperando la llegada de la aplicación Copilot de Microsoft, ahora está disponible para descargar en la tienda de aplicaciones de Apple. La aplicación es gratuita y también está disponible para computadoras portátiles y de escritorio MacBook que ejecutan macOS. Copilot es un asistente de chat generativo basado en la tecnología ChatGPT-4 de OpenAI, que es un modelo de lenguaje grande (LLM). Aunque OpenAI lanzó anteriormente su aplicación ChatGPT para el ecosistema de Apple, Copilot utiliza un modelo más nuevo para obtener respuestas mejores y más actualizadas. Algunas funciones que los usuarios pueden aprovechar con Copilot incluyen hacer preguntas al asistente y presentar respuestas de manera precisa, rápida y compleja. Al mismo tiempo, incluye DALL-E3 para la generación de texto a imagen, que es algo que hay que pagar en comparación con otros generadores de imágenes con IA en línea. Tenga en cuenta que debe iniciar sesión con su cuenta de Microsoft para utilizar el generador de imágenes. Asimismo, hay un botón de alternancia para habilitar ChatGPT-4. Microsoft Copilot para iPhone presenta generación de texto a imagen con tecnología DALL-E3. / © nextpit Si desea mejorar su uso con Copilot, puede asignarlo con el botón de acción en el iPhone 15 Pro (revisión) a través de la opción Atajos. De manera similar, se puede integrar con iPhones y iPads sin el nuevo botón programable a través de la aplicación Atajos. En cuanto a los dispositivos Android, Microsoft Copilot se lanzó a principios del año pasado. Además, también está disponible el navegador Bing de Microsoft con integración de IA y ChatGPT, que es una alternativa a Google Chrome y los navegadores predeterminados de los OEM. Más allá de las aplicaciones de inteligencia artificial de terceros, se rumorea que Apple presentará el iPhone 16 con un gran énfasis en la inteligencia artificial. El gigante tecnológico de Cupertino podría integrar IA generativa a través de su asistente Siri. Existe la posibilidad de que algunas funciones se anuncien con la próxima actualización de iOS 18. ¿Qué aplicación de IA estás usando en tu dispositivo? ¿Con qué frecuencia lo usas? Nos gustaría escuchar tu experiencia.

Source link

El Galaxy S24 de Samsung se lanzará con un editor de fotos AI similar al Pixel 8

No será una gran sorpresa si el Galaxy S24 de Samsung termina debutando con un gran enfoque en la inteligencia artificial cuando se lance en algún momento de este mes. Los propios coreanos ya insinuaron que algunas características de Galaxy AI llegarían con el próximo trío insignia de Galaxy. Sin embargo, podría haber otra herramienta de inteligencia artificial notable asociada con el Galaxy S24, que puede darle una oportunidad a la serie Pixel 8 de Google. Ahora, el filtrador Mystery Lupin ha compartido en X lo que aparece como la lista de funciones basadas en IA en el Galaxy S24 y el Galaxy S24 Ultra. El extracto destaca algunos de los que ya se especularon en filtraciones anteriores, pero también menciona una nueva edición generativa. En consecuencia, la función está disponible tanto para los modelos Ultra como para los que no son Ultra. Se describe para atender el movimiento o la eliminación de objetos en las fotografías. Posteriormente, también puede generar o llenar los espacios vacíos creados al mover objetos seleccionados a una nueva área fuera de la foto original. Por si sirve de algo, refleja el Magic Editor de Google, que es una característica exclusiva del Pixel 8 Pro (revisión) y se basa en capacidades de IA generativa. Fue demostrado por el gigante de la búsqueda, incluso se pueden generar áreas faltantes de objetos como bancos y globos. Presumiblemente, Generative Edit de Samsung debería ser tan capaz como Magic Editor. El Magic Editor de Google, basado en inteligencia artificial, puede generar áreas vacías y objetos completos. / © Google, Editado por nextpit En la descripción, también se indica que el uso de Generative Edit en el Galaxy S24 requiere que los usuarios inicien sesión con una cuenta Samsung y tengan una conexión a Internet activa. Esto sugiere que no será un proceso de IA completamente integrado y necesita la nube para que funcione completamente, que es similar al Magic Editor en el Pixel 8 Pro. El resto de las funciones enumeradas aparecen como capacidades en el dispositivo, incluido Live Translate que está integrado en la aplicación del teléfono Samsung y Nightography Zoom para tomas ampliadas con poca luz y alta resolución. También hay una función sin imágenes llamada Screen Display que proporciona velocidades de fotogramas estables y un nivel de brillo optimizado al jugar o transmitir. Los informes más recientes indican que Samsung celebrará un evento el 17 de enero en San José donde se debería anunciar la serie Galaxy S24 y posiblemente junto con el rastreador de ejercicios Galaxy Fit 3. Curiosamente, el Galaxy S24 y el Galaxy S24+ estarán equipados con un SoC Exynos 2400 en algunos mercados, por lo que indica que Galaxy AI no se limita a los modelos Snapdragon. Oferta de afiliado ¿Estas incorporaciones de IA lo convencerán de actualizar al Galaxy S24? Compártenos tus respuestas en los comentarios.

Source link

Los legisladores de California quieren proteger a los actores para que no sean reemplazados por IA

SACRAMENTO – Mientras los actores y escritores de Hollywood continúan en huelga para exigir mejores salarios y beneficios, los legisladores de California esperan proteger a los trabajadores para que no sean reemplazados por sus clones digitales. El miércoles, el asambleísta Ash Kalra (D-San José) presentó un proyecto de ley que daría a los actores y artistas una forma de anular disposiciones en contratos vagos que permiten a los estudios y otras empresas utilizar inteligencia artificial para clonar digitalmente sus voces, rostros y cuerpos. «Existe una creciente preocupación de que la tecnología se utilice para suplantar sus servicios», afirmó Kalra. “No hay duda de que toda persona tiene derecho a controlar su propia imagen y semejanza, así como su voz”. La inteligencia artificial puede generar imágenes, sonidos o incluso réplicas digitales, lo que alimenta la preocupación de que los estudios cinematográficos utilicen la tecnología para acabar con los empleos del entretenimiento. El uso de lo que se conoce como IA generativa ha sido un punto conflictivo en las negociaciones contractuales entre actores en huelga y estudios cinematográficos. Sindicatos como SAG-AFTRA, que representa a actores, locutores y otros trabajadores del entretenimiento, dicen que se necesitan más salvaguardias para protegerlos de la amenaza de la IA a sus medios de vida, incluso si llegan a un acuerdo favorable. El proyecto de ley, que se presentó el día antes de que concluya el jueves la sesión legislativa de California de 2023, es un adelanto de cómo los legisladores estatales esperan proteger a los trabajadores de los peligros potenciales de la IA. La legislación, el Proyecto de Ley 459 de la Asamblea, no será considerada por los legisladores hasta el próximo año. SAG-AFTRA, que ha estado en los piquetes con el Writers Guild of America, apoya la legislación. Los proyectos de ley para regular la IA, incluida la lucha contra la discriminación algorítmica, no lograron avanzar este año en el Capitolio estatal. Dado que las empresas tecnológicas y los estudios de Hollywood son fundamentales para la economía de California, los políticos también están tratando de equilibrar las preocupaciones de que la regulación gubernamental pueda perjudicar la innovación. El gobernador Gavin Newsom está actuando con cautela sobre el tema y a principios de este mes emitió una orden ejecutiva que ordena a las agencias estatales que examinen los beneficios y riesgos de la IA generativa. Según AB 459, los actores, artistas de voz y otros trabajadores que renunciaron a los derechos sobre su voz o imagen, permitiendo a las empresas hacer clones digitales o usarlos en otras aplicaciones de IA generativa, podrían escapar de esos contratos si no estuvieran representados. por un sindicato o abogado. Las disposiciones contractuales que no definan claramente los usos potenciales de una réplica digital generada por IA se considerarían “desmedidas” según la ley de California, lo que significa que no se pueden hacer cumplir. El proyecto de ley se aplicaría retroactivamente. «La velocidad con la que se han adoptado estas tecnologías significa que el impacto no es algo que pueda suceder algún día en el futuro, pero está sucediendo ahora mismo, a medida que los estudios buscan reemplazar a las personas reales con escaneos digitales», Duncan Crabtree-Ireland, SAG- dijo en un comunicado el director ejecutivo nacional y jefe negociador de AFTRA. Añadió que le complacía ver que la legislación «aborda la transferencia poco ética de la propia imagen y semejanza a través de acuerdos de explotación con artistas intérpretes o ejecutantes». La Alianza de Productores de Cine y Televisión, que representa a los estudios en las negociaciones laborales, afirmó en el pasado que cuando se trata de escritura de guiones, la IA plantea «cuestiones creativas y legales difíciles e importantes para todos». En lo que respecta a la actuación, la AMPTP ha pedido consentimiento informado y remuneración justa en los casos en que los actores sean replicados digitalmente. La Asociación Cinematográfica. y la Asociación de la Industria Discográfica. de América no tuvo una declaración sobre la legislación. La Entertainment Software Assn., que representa a la industria de los videojuegos, no respondió a una solicitud de comentarios. Los estudios de Hollywood ya utilizan tecnología para escanear los cuerpos y rostros de los actores para poder crear réplicas digitales de las escenas. James Earl Jones, quien expresó a Darth Vader en “Star Wars”, se retiró pero, según se informa, permitió a Disney y Lucasfilm usar inteligencia artificial y grabaciones de archivo para recrear su amenazadora e icónica voz. Pero los actores también podrían sentirse presionados a ceder los derechos de su voz o imagen digital o no entender completamente un contrato sin un abogado, dijo Kalra. Los extras de películas a quienes se les han copiado digitalmente los cuerpos también temen que serán reemplazados por sus réplicas digitales. Mientras tanto, las empresas de entretenimiento continúan ampliando sus operaciones de IA. Los escritores también han alegado que algunas empresas de tecnología están utilizando su trabajo para entrenar sistemas de inteligencia artificial sin su consentimiento. En julio, la comediante Sarah Silverman y los novelistas demandaron a la empresa matriz de Facebook, Meta, y a OpenAI, quienes desarrollaron una popular herramienta de inteligencia artificial generativa, ChatGPT, alegando que las empresas de tecnología utilizaron sus libros protegidos por derechos de autor para entrenar sistemas de inteligencia artificial. Kalra no fue el único legislador de California que presentó un proyecto de ley sobre IA el miércoles. El senador estatal Scott Wiener (D-San Francisco) dio a conocer un proyecto de ley que responsabilizaría a las empresas de tecnología por no prevenir los riesgos previsibles de seguridad de la IA, además de exigir transparencia y medidas de seguridad para ciertos sistemas de IA. Hora informada anteriormente en el proyecto de ley. «Como sociedad, cometimos un error al permitir que las redes sociales se adoptaran ampliamente sin evaluar primero los riesgos y poner barreras de seguridad», dijo Wiener en un comunicado. «Repetir el mismo error en torno a la IA sería mucho más costoso». A medida que continúan creciendo las preocupaciones sobre la amenaza potencial de la IA a la fuerza laboral creativa, Kalra dijo que los legisladores deben actuar ahora. «Tenemos que adelantarnos a esto y asegurarnos de proteger a quienes luchan por salir adelante, quienes podrían sentirse más obligados a firmar en la línea de puntos», dijo.

Source link

Nvidia presenta H200, su nuevo chip de alta gama para entrenar modelos de IA

Jensen Huang, presidente de Nvidia, sosteniendo la CPU con superchip Grace hopper utilizada para la IA generativa en la presentación principal de Supermicro durante Computex 2023. Walid Berrazeg | Cohete ligero | Getty ImagesNvidia presentó el lunes el H200, una unidad de procesamiento de gráficos diseñada para entrenar e implementar los tipos de modelos de inteligencia artificial que están impulsando el auge de la IA generativa. La nueva GPU es una actualización del H100, el chip que OpenAI utilizó para entrenar sus sistemas más avanzados. modelo de lenguaje grande, GPT-4. Grandes empresas, nuevas empresas y agencias gubernamentales compiten por un suministro limitado de chips. Los chips H100 cuestan entre 25.000 y 40.000 dólares, según una estimación de Raymond James, y se necesitan miles de ellos trabajando juntos para crear los modelos más grandes en un proceso. llamado «capacitación». El entusiasmo por las GPU de inteligencia artificial de Nvidia ha sobrealimentado las acciones de la compañía, que han subido más del 230% en lo que va de 2023. Nvidia espera alrededor de $16 mil millones de dólares de ingresos para su tercer trimestre fiscal, un 170% más que hace un año. La mejora clave del H200 es que incluye 141 GB de memoria «HBM3» de próxima generación que ayudará al chip a realizar «inferencias» o utilizar un modelo grande después de haber sido entrenado para generar texto, imágenes o predicciones. Nvidia dijo que el H200 generará produce casi el doble de velocidad que el H100. Esto se basa en una prueba realizada con Llama 2 LLM de Meta. El H200, que se espera que se envíe en el segundo trimestre de 2024, competirá con la GPU MI300X de AMD. El chip de AMD, similar al H200, tiene memoria adicional sobre sus predecesores, lo que ayuda a colocar modelos grandes en el hardware para ejecutar inferencias. Chips Nvidia H200 en un sistema Nvidia HGX de ocho GPU. NvidiaNvidia dijo que el H200 será compatible con el H100. lo que significa que las empresas de IA que ya están entrenando con el modelo anterior no necesitarán cambiar sus sistemas de servidor o software para usar la nueva versión. Nvidia dice que estará disponible en configuraciones de servidor de cuatro GPU u ocho GPU en el HGX completo de la compañía. sistemas, así como en un chip llamado GH200, que combina la GPU H200 con un procesador basado en Arm. Sin embargo, es posible que el H200 no mantenga la corona del chip Nvidia AI más rápido por mucho tiempo. Si bien empresas como Nvidia ofrecen muchas configuraciones diferentes de En sus chips, los nuevos semiconductores a menudo dan un gran paso adelante aproximadamente cada dos años, cuando los fabricantes pasan a una arquitectura diferente que desbloquea ganancias de rendimiento más significativas que agregar memoria u otras optimizaciones más pequeñas. Tanto el H100 como el H200 se basan en la arquitectura Hopper de Nvidia. En octubre, Nvidia dijo a los inversores que pasaría de una cadencia de arquitectura de dos años a un patrón de lanzamiento de un año debido a la alta demanda de sus GPU. La compañía mostró una diapositiva que sugiere que anunciará y lanzará su chip B100, basado en la próxima arquitectura Blackwell, en 2024. MIRAR: Creemos firmemente en la tendencia de la IA que se implementará el próximo año. No se pierda estas historias de CNBC PRO:

Source link

Informe de tendencias de código abierto y nuevos productos de seguridad de IA

GitHub Advanced Security obtiene funciones de IA y GitHub Copilot ahora incluye una opción de chatbot. Se espera que GitHub Copilot Enterprise esté disponible en febrero de 2024. Imagen: Adobe/sdx15 En la conferencia GitHub Universe celebrada en San Francisco y virtualmente los días 8 y 9 de noviembre de 2023, la compañía reveló su nuevo informe de tendencias de código abierto, así como cambios en GitHub Copilot y mejoras de IA para GitHub Advanced Security. GitHub Copilot y GitHub Advanced Security están disponibles a nivel mundial. Sin embargo, algunos servicios de GitHub, incluido Copilot, están sujetos a controles comerciales de EE. UU. y no están disponibles en los países sancionados que se enumeran aquí. Saltar a: La IA generativa es popular entre los proyectos de código abierto Los proyectos de IA generativa de código abierto se unieron a la lista de GitHub de los 10 proyectos de código abierto más populares por número de contribuyentes en 2023. En 2022, alrededor de 17.000 desarrolladores de GitHub trabajaron en proyectos de IA generativa; en 2023, esa cifra se disparó a alrededor de 60.000. Los proyectos de IA se están volviendo más comunes, dijo GitHub. Es probable que en el futuro más organizaciones comiencen a utilizar modelos de IA previamente entrenados a medida que los desarrolladores se familiaricen con ellos, predijo GitHub. Tendencias de Git hacia aplicaciones nativas de la nube a escala GitHub descubrió que los desarrolladores utilizan cada vez más el sistema de control de versiones de Git para lenguajes declarativos que utilizan infraestructura basada en Git como flujos de trabajo de código. El estudio también encontró una mayor estandarización en las implementaciones de la nube y un fuerte aumento en la velocidad a la que los desarrolladores usaban Dockerfiles y contenedores, infraestructura como código y otras tecnologías nativas de la nube. El uso del lenguaje de configuración de Hashicorp (HCL), que es un indicador de operaciones y trabajo de infraestructura como código, creció un 36 % año tras año. El número de nuevos desarrolladores en GitHub creció un 26%, y India tiene la población de desarrolladores de más rápido crecimiento. GitHub define a un desarrollador como cualquier persona con una cuenta de GitHub que no sea spam. Los proyectos de código abierto con respaldo comercial llaman la atención Los proyectos de código abierto con respaldo comercial tuvieron el mayor número de contribuciones y el mayor número de contribuyentes por primera vez. El número de proyectos privados creció un 38% año tras año. Proteger dependencias y sucursales son proyectos populares. En términos de seguridad en código abierto, cada vez más desarrolladores están recurriendo a la automatización para proteger las dependencias, y los mantenedores de código abierto están prestando mucha atención a proteger sus sucursales. El desarrollo front-end es prometedor El desarrollo front-end es un tipo de proyecto de rápido crecimiento entre los desarrolladores de código abierto. GitHub Copilot Chat y GitHub Copilot Enterprise revelados En GitHub Universe, la compañía anunció GitHub Copilot Chat (Figura A), que es un asistente de IA generativa que explica el código en lenguaje natural, y GitHub Copilot Enterprise. GitHub Copilot Chat estará disponible en diciembre de 2023 para los clientes con suscripciones a GitHub Copilot individuales o para toda la organización. Figura A GitHub Copilot Chat explica el código en lenguaje natural. Imagen: GitHub GitHub Copilot Enterprise, personalizado para uso empresarial, llegará en febrero de 2024 a un precio de 39 dólares por usuario al mes. Compare esto con Copilot Business, que cuesta $19 por mes y ya está disponible. Funciones adicionales de IA agregadas a GitHub Advanced Security Cobertura de lectura obligada para desarrolladores Tres funciones más impulsadas por IA llegarán a GitHubAdvanced Security: corrección automática de escaneo de código, escaneo de secretos en busca de secretos genéricos y un generador de expresiones regulares. VER: GitHub no es la única plataforma de colaboración y control de versiones. Consulte las alternativas de GitHub que están floreciendo en 2023. (TechRepublic) “Los desarrolladores necesitan la capacidad de proteger de forma proactiva su código justo donde se crea”, afirmó la vicepresidenta de gestión de productos de GitHub, Asha Chakrabarty, y directora de marketing de productos del laboratorio de seguridad y seguridad de la plataforma de GitHub. Laura Paine, escribió en una publicación de blog. Corrección automática del escaneo de código El escaneo de código ahora propondrá correcciones generadas por IA directamente en la solicitud de extracción, lo que permitirá a los desarrolladores corregir instantáneamente las vulnerabilidades mientras codifican; esto conducirá a un tiempo de remediación más rápido. Se pueden crear correcciones generadas por IA para alertas de CodeQL, JavaScript y TypeScript. Esto funciona cuando GitHub consulta un modelo de lenguaje grande en segundo plano para encontrar correcciones para cualquier alerta nueva, que luego se publica como sugerencias de código dentro de la solicitud de extracción. Autofix ahora está disponible para escanear códigos dentro de GitHub Advanced Security. Escaneo secreto El escaneo secreto con IA generativa, que ahora se encuentra en versión beta pública limitada, está diseñado para reducir los falsos positivos que a menudo surgen al buscar contraseñas posiblemente activas filtradas (Figura B). Figura B El escaneo secreto alerta a los usuarios sobre una contraseña que puede haber sido expuesta. Imagen: GitHub Generador de expresiones regulares El generador de expresiones regulares mejora las opciones de los desarrolladores cuando se trata de escaneo secreto, permitiéndoles crear patrones personalizados con expresiones regulares creadas con algunas consultas en lenguaje natural enviadas a la IA generativa. Está diseñado para agilizar la escritura de expresiones regulares y permite a los desarrolladores realizar ensayos en tiempo real para asegurarse de que todo funcione antes de guardar el patrón. La generación de expresiones regulares ya está disponible. Más características nuevas en GitHub Advanced Security Otras características nuevas de GitHub Advanced Security incluyen la creación de patrones personalizados con IA generativa y un nuevo panel de descripción general de seguridad. El personal de seguridad interesado puede unirse a una lista de espera para estas funciones.

Source link

Columna: La huelga de escritores fue una victoria de los humanos sobre la IA


La histórica huelga de escritores de 146 días finalmente parece haber terminado. Los detalles son escasos, pero el Writers Guild of America suena triunfante: califica el acuerdo de “excepcional” y anuncia ganancias en casi todos los ámbitos. Y aunque hay muchas razones por las que el sindicato finalmente ganó (organización inteligente y un piquete memorable, una fuerte alianza con SAG-AFTRA y errores tácticos cometidos por los ejecutivos del estudio, entre ellos), hay una cosa sobre todo que iluminó la acción: la La forma en que los escritores se negaron a permitir que los jefes usaran la IA para explotarlos. En un momento en que la perspectiva de que los ejecutivos y gerentes usaran la automatización del software para socavar el trabajo en profesiones en todas partes cobraba gran importancia, la huelga se convirtió en una especie de batalla por poderes entre humanos y IA. Fue una batalla que la mayoría del público estaba ansioso por ver ganar a los escritores. No es la única razón por la que los estadounidenses respaldaban abrumadoramente a los escritores de los estudios (según una encuesta de Gallup, el público los apoyaba por encima de los ejecutivos por un sorprendente margen del 72% al 19%), pero era una razón importante. Como lo dirán los participantes de la huelga de cinco meses, las preocupaciones sobre el uso de IA generativa como ChatGPT ni siquiera eran una prioridad cuando los escritores se sentaron por primera vez con los estudios para comenzar a negociar. La primera propuesta de la WGA simplemente establecía que los estudios no usarían IA para generar guiones originales, y fue solo cuando los estudios se negaron rotundamente que se encendieron las banderas rojas. Fue entonces cuando los escritores se dieron cuenta de que los estudios tomaban en serio el uso de IA, si no para generar guiones terminados, algo que ambas partes sabían que era imposible en esta coyuntura, y luego como palanca contra los escritores, tanto como una amenaza como un medio para justificar el ofrecimiento de tarifas de reescritura más bajas. Fue entonces cuando la WGA trazó una línea en la arena, cuando comenzamos a ver carteles en los piquetes que denunciaban a AI que se volvían virales en las redes sociales y titulares que promocionaban el conflicto adornaban periódicos como este. Cada vez que iba a los piquetes, La IA era fácilmente el tema principal que los escritores querían discutir, en gran parte porque parecía una amenaza existencial directa al trabajo de ser guionista. Las opiniones sobre la naturaleza precisa de la amenaza de la IA variaron. Algunos pensaban que la tecnología era una completa basura que no podía escribir un guión que valiera la pena, sin importar las indicaciones que se le dieran, y temían que simplemente se usara como una excusa para reducir los salarios. Otros estaban legítimamente preocupados de que los estudios intentaran usar IA generativa. quitarles el trabajo de todos modos, o que con el tiempo sería lo suficientemente bueno como para producir un producto útil. Si ese fuera el caso, muchos temían lo que se perdería en el proceso: películas y series coloreadas por experiencias de la vida real, que exploraban la experiencia humana. Ya sabes, arte. Había un temor palpable de que los productos tecnológicos, creados por startups ricas y en su mayoría blancas en Silicon Valley, produjeran contenido que reflejara exactamente eso. Independientemente de la naturaleza de la queja, todos estuvieron de acuerdo en entregar a los estudios el poder de decidir cómo utilizar la generación generativa. La IA fue una mala idea. Todos parecían entender la importancia de esa línea roja contra permitir que los jefes automatizaran su trabajo en aras de reducir costos o mejorar la eficiencia. Y la naturaleza de esa resistencia era contagiosa. «Estoy convencido de muchas de las cosas por las que los escritores están en huelga, desde asegurarse de que tengan un número mínimo de escritores en una sala de escritores hasta regular la IA», dijo la actriz y miembro del SAG Ellen Adair al periodista laboral Alex Press. en los primeros días de la huelga. Cuando quedó claro que los estudios estaban tan interesados ​​en automatizar la actuación como lo estaban escribiendo (los estudios supuestamente querían el derecho a usar la captura de movimiento para escanear a los actores de fondo y usar sus imágenes a perpetuidad), los actores rechazado también; La SAG se declaró en huelga en julio. Grandes celebridades como Bryan Cranston y el negociador del SAG Fran Drescher se pronunciaron en contra de la IA, haciendo causa común. La línea roja que trazaron los escritores fue claramente inspiradora y unificadora; no solo entre los actores de la pantalla que enfrentaron temores similares, sino también entre todos aquellos que miraban los titulares pregonando una inminente adquisición de la IA, o leían memorandos de sus gerentes anunciando iniciativas para explorar el uso de la IA en sus lugares de trabajo. Eso incluye a todos los ilustradores, periodistas y redactores que han estado observando con nerviosismo cómo su trabajo parecía agotarse a medida que la gerencia adoptaba herramientas como Midjourney y Bard. Entonces sucedió algo curioso. Observadores, periodistas e incluso los propios trabajadores de Hollywood comenzaron a referirse a los huelguistas como luditas. Los verdaderos luditas; no las caricaturas. La cultura estadounidense se ha burlado durante mucho tiempo de cualquiera que proteste contra la tecnología llamándolo ludita. Se supone que significa «ignorante» o «mirando hacia atrás», pero todo eso está mal. Empresas como Wired y Fast Co. llamaban luditas a los manifestantes en un sentido favorable, porque cada vez más personas entienden que los verdaderos luditas no se oponían a la tecnología en sí, sino a la forma en que se usaba y contra quién se usaba. He pasado los últimos cinco años investigando y escribiendo sobre esos luditas reales, por lo que puedo asegurarles que eran trabajadores inteligentes y conocedores de la tecnología que vieron a los empresarios tratando de automatizar sus trabajos o reemplazarlos con máquinas, y respondieron con fuerza. sólo después de que fracasaran los esfuerzos pacíficos para frenar la “maquinaria perjudicial para los intereses comunes”. Estaban bien con la mayoría de la tecnología, pero trazaron una línea en las cosas que las explotaban con el único propósito de enriquecer a otra. Como tal, al trazar esa línea roja contra la IA, una táctica que resultó tan exitosa, los escritores sacaron una página de el manual ludita de la vieja escuela. Y, al igual que los luditas de principios de la Revolución Industrial, que durante un tiempo fueron tan queridos en Inglaterra como Robin Hood, resultó extremadamente popular. También vale la pena celebrarlo, ya que supongo que esto es sólo el comienzo. Hollywood está lejos de ser la única industria ansiosa por reducir costos automatizando el trabajo con IA generativa. Desde el comienzo de la huelga, he argumentado que los escritores están liderando el camino al mostrar a los trabajadores de todo el mundo cómo resistir los usos potencialmente explotadores de la IA en el mundo. lugar de trabajo, y ahora, más que nunca, se ha demostrado que eso es cierto. Hay un gran poder en trazar una línea dura, en negarse a permitir que un jefe use la tecnología para borrar su trabajo, en hablar sobre cómo le gustaría o no que la tecnología moldeara su vida. Y, si parece que sólo va a degradar o alterar su forma de vida, decir no tiene un gran poder. Pregúntale a los escritores.

Source link

Google, Intel y Nvidia luchan en la formación en IA generativa


La prueba pública líder de manzanas con manzanas sobre la capacidad de los sistemas informáticos para entrenar redes neuronales de aprendizaje automático ha entrado de lleno en la era de la IA generativa. A principios de este año, MLPerf agregó una prueba para entrenar modelos de lenguaje grandes (LLM), GPT-3 en particular. Este mes agrega Stable Diffusion, un generador de texto a imagen. Las computadoras con tecnología Intel y Nvidia tomaron el nuevo punto de referencia. Y los rivales continuaron su batalla anterior en el entrenamiento de GPT-3, donde Google se unió a ellos. Los tres dedicaron enormes sistemas a la tarea (la supercomputadora de 10.000 GPU de Nvidia fue la más grande jamás probada) y ese tamaño es necesario en la IA generativa. Incluso el sistema más grande de Nvidia habría necesitado ocho días de trabajo para completar completamente su trabajo de LLM. En total, 19 empresas e instituciones presentaron más de 200 resultados, lo que mostró un aumento de rendimiento de 2,8 veces en los últimos cinco meses y un aumento de 49 veces. desde que MLPerf comenzó hace cinco años. Nvidia y Microsoft prueban monstruos de 10,752 GPU. Nvidia continuó dominando las pruebas de MLPerf con sistemas fabricados con sus GPU H100. Pero la guinda del pastel fueron los resultados de Eos, la nueva supercomputadora de IA de 10.752 GPU de la compañía. Al doblar todas esas GPU para la tarea del punto de referencia de entrenamiento GPT-3, Eos hizo el trabajo en poco menos de 4 minutos. La división de computación en la nube de Microsoft, Azure, probó un sistema exactamente del mismo tamaño y quedó detrás de Eos por apenas unos segundos. (Azure impulsa el asistente de codificación CoPilot de GitHub y ChatGPT de OpenAI). Las GPU de Eos son capaces de realizar un total de 42,6 mil millones de billones de operaciones de punto flotante por segundo (exaflops). Y están unidos mediante interconexiones (Quantum-2 Infiniband de Nvidia) que transportan 1,1 millones de billones de bytes por segundo. «Algunas de estas velocidades y transmisiones son alucinantes», dice Dave Salvatore, director de evaluación comparativa de IA y computación en la nube de Nvidia. “Esta es una máquina increíblemente capaz”. Eos triplica la cantidad de GPU H100 que se han integrado en una sola máquina. Ese aumento de tres veces supuso una mejora del rendimiento de 2,8 veces, o una eficiencia de escalado del 93 por ciento. El escalado eficiente es clave para la mejora continua de la IA generativa, que se ha multiplicado por diez cada año. El punto de referencia GPT-3 que abordó Eos no es una capacitación completa de GPT-3, porque MLPerf quería que estuviera al alcance de muchas empresas. En cambio, implica entrenar el sistema hasta un cierto punto de control que demuestre que el entrenamiento habría alcanzado la precisión necesaria con el tiempo suficiente. Y estas capacitaciones toman tiempo. Extrapolando los 4 minutos de Eos significa que se necesitarían 8 días para completar el entrenamiento, y eso es en lo que podría ser la supercomputadora de IA más poderosa construida hasta ahora. Una computadora de tamaño más razonable (512 H100) tomaría 4 meses. Intel continúa cerrando en Intel presentó resultados para sistemas que utilizan el chip acelerador Gaudi 2 y para aquellos que no tenían ningún acelerador, confiando únicamente en su CPU Xeon de cuarta generación. El gran cambio con respecto al último conjunto de puntos de referencia de capacitación fue que la compañía había habilitado las capacidades de punto flotante de 8 bits (FP8) de Gaudi 2. El uso de números de menor precisión, como FP8, ha sido responsable de la mayor parte de la mejora en el rendimiento de la GPU en los últimos 10 años. El uso de FP8 en partes de GPT-3 y otras redes neuronales de transformadores donde su baja precisión no afectará la precisión ya ha mostrado su valor en los resultados H100 de Nvidia. Ahora Gaudi 2 está viendo el impulso. “Proyectamos una ganancia del 90 por ciento” al encender el FP8, dice Eitan Medina, director de operaciones de Intel Habana Labs. «Hemos entregado más de lo prometido: una reducción del 103 por ciento en el tiempo de entrenamiento para un grupo de 384 aceleradores». Ese nuevo resultado coloca al sistema Gaudi 2 a poco menos de un tercio de la velocidad de un sistema Nvidia en un por chip y tres veces más rápido que el TPUv5e de Google. En el punto de referencia de nueva generación de imágenes, Gaudi 2 también tenía aproximadamente la mitad de velocidad que el H100. GPT-3 fue el único punto de referencia que FP8 se habilitó para esta ronda, pero Medina dice que su equipo está trabajando para activarlo para otros ahora. Medina continuó argumentando que Gaudi 2 tiene un precio significativamente más bajo que el H100, por lo que tiene una ventaja en una métrica combinada de precio y rendimiento. Medina espera que la ventaja aumente con la próxima generación del chip acelerador Intel, Gaudi 3. Ese chip se producirá en volumen en 2024 y se construirá utilizando el mismo proceso de fabricación de semiconductores que la Nvidia H100. Por otra parte, Intel presentó resultados para sistemas basados ​​en sólo en CPU. Nuevamente, se muestran tiempos de entrenamiento de entre minutos y horas para varios puntos de referencia. Más allá de los puntos de referencia MLPerf, Intel también compartió algunos datos que muestran que un sistema Xeon de 4 nodos, cuyos chips incluyen el motor de matriz AMX, puede ajustar la difusión estable del generador de imágenes en menos de cinco minutos. El ajuste fino toma una red neuronal ya entrenada y la especializa en una tarea determinada. Por ejemplo, la IA del diseño de chips de Nvidia es un ajuste fino de un modelo de lenguaje grande existente llamado NeMo. Puede ver todos los resultados aquí. De los artículos de su sitio Artículos relacionados en la Web

Source link

Google presenta IA generativa para anunciantes

Google está introduciendo nuevas herramientas de inteligencia artificial para facilitar la creación de anuncios a las empresas. Esta nueva tecnología será útil tanto para agencias de publicidad como para empresas sin equipos creativos dedicados. Estas herramientas cubren varios elementos de la creación de anuncios, incluidos titulares, descripciones e imágenes. Los anunciantes pueden utilizar indicaciones de texto para realizar ajustes hasta lograr el resultado deseado. Google asegura que no producirá imágenes idénticas para evitar situaciones en las que las empresas competidoras terminen con las mismas imágenes. Este creador de anuncios paso a paso es parte del producto de campaña publicitaria Performance Max de Google, que atiende a plataformas como búsqueda y compras. También incluye una solución avanzada de edición de imágenes similar a las funciones de Magic Editor que se encuentran en el teléfono inteligente Pixel 8. Los anuncios generativos de IA de Google harán que la publicidad sea mucho más fácil. Este enfoque ofrece flexibilidad para que las empresas adapten y personalicen imágenes para diferentes escenarios. Los usuarios pueden actualizar los anuncios visuales existentes conservando los elementos esenciales. Por ejemplo, un usuario podría reutilizar un modelo que presenta un producto para el cuidado de la piel pero reemplazar el fondo con un árbol de Navidad para publicidad con temas navideños. Las herramientas de inteligencia artificial también permiten la generación de variaciones de anuncios para diversas situaciones. Los minoristas que utilicen Merchant Center Next, una herramienta que controla la apariencia del producto en Google, tendrán acceso a estas herramientas generativas de IA. Para mantener la transparencia, todo el contenido publicitario generado por IA llevará SynthID, una marca de agua de metadatos que identifica el contenido creado con tecnología de IA. La iniciativa de Google tiene como objetivo simplificar el proceso de creación de anuncios, haciéndolo accesible a una gama más amplia de empresas, independientemente de sus capacidades creativas. Noticias de la semana de Gizchina Conclusión La introducción de estas herramientas de inteligencia artificial subraya el compromiso de Google de democratizar el proceso de creación de anuncios. Con esto, Google pretende ofrecer a las empresas soluciones potentes pero fáciles de usar. Al combinar IA generativa para texto e imágenes, los anunciantes pueden realizar cambios de manera eficiente en el contenido de sus anuncios hasta lograr resultados atractivos. La inclusión de una solución avanzada de edición de imágenes amplía las posibilidades creativas, permitiendo a las empresas actualizar sus imágenes manteniendo un mensaje de marca coherente. Para los minoristas, en particular aquellos que utilizan Merchant Center Next, la integración de estas herramientas de inteligencia artificial ofrece una experiencia perfecta para administrar y mejorar las presentaciones de sus productos en las plataformas de Google. Como parte de este esfuerzo, Google se asegura de que el contenido generado por IA esté marcado con SynthID, promoviendo la transparencia y la responsabilidad en el panorama publicitario.

Source link

Las tendencias en ciberseguridad a tener en cuenta en 2024 incluyen ataques generativos basados ​​en IA

Un informe de noviembre de Google Cloud detalla posibles tácticas de malware de los estados-nación en 2024 y nuevos ángulos de los ciberataques. ¿Cómo será la ciberseguridad en 2024? El Pronóstico de ciberseguridad global de Google Cloud encontró que la IA generativa puede ayudar a los atacantes y defensores e instó al personal de seguridad a estar atento a los ataques respaldados por estados nacionales y más. Entre los contribuyentes al informe se encuentran varios líderes de seguridad de Google Cloud y expertos en seguridad de Mandiant Intelligence, Mandiant Consulting, Chronicle Security Operations, la Oficina del CISO de Google Cloud y VirusTotal. Saltar a: Cómo la IA generativa puede afectar la ciberseguridad en 2024 Los actores de amenazas utilizarán IA generativa y grandes modelos de lenguaje en phishing y otras estafas de ingeniería social, predijo Google Cloud. Debido a que la IA generativa puede crear contenido que suene natural, los empleados pueden tener dificultades para identificar correos electrónicos fraudulentos a través de una mala gramática o llamadas no deseadas a través de voces que suenan robóticas. Los atacantes podrían utilizar IA generativa para crear noticias falsas o contenido falso, advirtió Google Cloud. Más cobertura de seguridad en la nube Los LLM y la IA generativa “se ofrecerán cada vez más en foros clandestinos como un servicio pago y se utilizarán para diversos fines, como campañas de phishing y difusión de desinformación”, escribió Google Cloud. Por otro lado, los defensores pueden utilizar la IA generativa en inteligencia sobre amenazas y análisis de datos. La IA generativa podría permitir a los defensores actuar a mayores velocidades y escalas, incluso cuando digieren grandes cantidades de datos. «La IA ya está brindando una enorme ventaja a nuestros ciberdefensores, permitiéndoles mejorar las capacidades, reducir el trabajo y protegerse mejor contra las amenazas», dijo Phil Venables, director de seguridad de la información de Google Cloud, en un correo electrónico a TechRepublic. Los estados-nación pueden utilizar phishing o malware de limpieza El informe señaló que los actores de los estados-nación pueden lanzar ataques cibernéticos contra el gobierno de EE. UU. a medida que se acercan las elecciones presidenciales de 2024 en EE. UU. El Spear phishing, en particular, puede utilizarse para atacar sistemas electorales, candidatos o votantes. El hacktivismo, o actores de amenazas motivados políticamente y no asociados con un estado-nación en particular, está resurgiendo, dijo Google Cloud. El malware Wiper, que está diseñado para borrar la memoria de una computadora, puede volverse más común. Ha sido visto desplegado por grupos de actores de amenazas rusos que atacan a Ucrania, dijo Google Cloud. La guerra en Ucrania ha demostrado que los atacantes patrocinados por el Estado podrían atacar tecnologías espaciales para perturbar a los adversarios o realizar espionaje. Los grupos de espionaje en 2024 pueden crear “botnets durmientes”, que son botnets colocadas en el Internet de las cosas, en oficinas o en dispositivos al final de su vida útil para escalar temporalmente los ataques. La naturaleza temporal de estas botnets puede hacer que sea particularmente difícil rastrearlas. Los tipos de ciberataques más antiguos siguen siendo amenazas. Algunas de las tendencias destacadas por Google Cloud muestran que los tipos de ciberataques más conocidos todavía deberían estar en el radar de los equipos de seguridad. Las vulnerabilidades de día cero pueden seguir aumentando. Los atacantes de estados-nación y los grupos de actores de amenazas pueden adoptar los días cero porque esas vulnerabilidades les dan a los atacantes acceso persistente a un entorno. Los correos electrónicos de phishing y el malware ahora son relativamente fáciles de detectar para los equipos de seguridad y las soluciones automatizadas, pero las vulnerabilidades de día cero siguen siendo relativamente efectivas, según el informe. La extorsión, otra técnica de ciberataque muy conocida, se estancó en 2022, pero se puede esperar que vuelva a crecer en 2024. Los actores de amenazas hacen publicidad de datos robados y reportan ingresos por extorsión que indican un crecimiento. VER: El malware SecuriDropper puede sortear la configuración restringida de Android 13 para descargar aplicaciones ilegítimas (TechRepublic) Algunas técnicas de amenazas más antiguas se están volviendo lo suficientemente populares como para estar en el radar de Google Cloud. Por ejemplo, recientemente se ha vuelto a ver una técnica anti-máquina virtual de 2012. Y un ataque documentado por primera vez en 2013 que utiliza funciones SystemFunctionXXX no documentadas en lugar de funciones de criptografía en una API de Windows documentada se ha vuelto popular nuevamente. Otras tendencias y predicciones de ciberseguridad en la nube, dispositivos móviles y SecOps El vicepresidente y gerente general de Google Cloud, Sunil Potti, dijo en un correo electrónico a TechRepublic: «En este momento, vemos organizaciones ejecutando sus datos en una combinación de entornos multinube, locales e híbridos, y mientras No es realista esperar que estas organizaciones alojen sus activos únicamente en un solo lugar, lo que hace que las operaciones de seguridad integrales y unificadas y la gestión general de riesgos sean particularmente desafiantes”. En entornos híbridos y multinube, es posible que las empresas deban estar atentas a configuraciones erróneas y problemas de identidad que permitan a los actores de amenazas moverse lateralmente a través de diferentes entornos de nube, dijo Google Cloud. Muchos actores de amenazas, incluidos los actores de amenazas de estados-nación, pueden utilizar servicios sin servidor en 2024. Los servicios sin servidor les brindan mayor escalabilidad, flexibilidad y automatización. Google Cloud ha visto un creciente interés entre los atacantes en los ataques a la cadena de suministro alojados en administradores de paquetes como NPM (Node.js), PyPI (Python) y crates.io (Rust). Es probable que este tipo de ciberataque aumente porque su implementación cuesta poco y puede tener un impacto importante. Es probable que el cibercrimen móvil crezca en 2024 a medida que los estafadores utilicen tácticas de ingeniería social novedosas y probadas para obtener acceso a los teléfonos de sus objetivos, según el informe. Finalmente, Google Cloud predijo que SecOps se consolidará cada vez más en 2024. Esta hoja de ruta se puede utilizar para impulsar estrategias de ciberseguridad y compras al intentar adelantarse a lo que pueda venir en 2024.

Source link

Página 7 de 8

Funciona con WordPress & Tema de Anders Norén