Todo lo que necesitas saber sobre tecnología

Etiqueta: IA generativa Página 1 de 9

Oklo de Sam Altman se desploma un 54% en su debut en la Bolsa de Nueva York después de SPAC

Sam Altman es ahora presidente de una empresa pública. Pero no es OpenAI. El viernes, la empresa de fisión nuclear avanzada Oklo comenzó a cotizar en la Bolsa de Valores de Nueva York. La empresa, que aún no ha generado ingresos, salió a bolsa a través de una empresa de adquisición de propósito especial (SPAC) llamada AltC Acquisition Corp., fundada y dirigida por Altman. Bajo el símbolo «OKLO», las acciones se desplomaron un 54% el viernes a 8,45 dólares. , valorando la empresa en unos 364 millones de dólares. Oklo recibió aproximadamente 306 millones de dólares en ganancias brutas en la transacción, según un comunicado. El modelo de negocio de Oklo se basa en la comercialización de la fisión nuclear, la reacción que alimenta todas las plantas de energía nuclear. En lugar de reactores convencionales, la empresa pretende utilizar minirreactores nucleares alojados en estructuras en forma de A. Su objetivo es vender la energía a usuarios finales como la Fuerza Aérea de EE. UU. y las grandes empresas tecnológicas. Oklo está trabajando actualmente para construir su primer reactor a pequeña escala en Idaho, que eventualmente podría alimentar los tipos de centros de datos que OpenAI y otros sistemas artificiales. las empresas de inteligencia necesitan ejecutar sus modelos y servicios de IA. Altman es cofundador y director ejecutivo de OpenAI, que ha sido valorada en más de 80 mil millones de dólares por inversores privados. Ha dicho que ve la energía nuclear como una de las mejores formas de resolver el problema de la creciente demanda de IA y la energía que impulsa la tecnología, sin depender de combustibles fósiles. El cofundador de Microsoft, Bill Gates, y el fundador de Amazon, Jeff Bezos, también han invertido en plantas nucleares en los últimos años. «No veo una manera de llegar allí sin energía nuclear», dijo Altman a CNBC en 2023. «Quiero decir, tal vez podamos Podría llegar allí solo con energía solar y almacenamiento, pero desde mi punto de vista, siento que esta es la mejor y más probable manera de llegar allí». En una entrevista con CNBC el jueves, el director ejecutivo de Oklo, Jacob DeWitte, confirmó que la compañía aún tiene que hacerlo. generar ingresos y no tiene plantas nucleares desplegadas en este momento. Dijo que la compañía tiene como objetivo 2027 para que su primera planta entre en funcionamiento. Seguir la ruta SPAC es arriesgado. Las llamadas fusiones inversas se hicieron populares en los días de bajas tasas de interés de 2020 y 2021, cuando las valoraciones de las tecnologías se disparaban y los inversores buscaban crecimiento por encima de las ganancias. Pero el mercado de SPAC se derrumbó en 2022 junto con el aumento de las tasas y no se ha recuperado. Las empresas relacionadas con la inteligencia artificial, por otro lado, son las nuevas favoritas de Wall Street. «Las SPAC no han tenido exactamente los mejores desempeños en los últimos años , por lo que para nosotros tener el resultado que hemos tenido aquí es obviamente una función del trabajo que realizamos, pero también de lo que estamos construyendo y también del hecho de que el mercado ve las oportunidades aquí», dijo DeWitte. , quien cofundó la empresa en 2013. «Creo que es muy prometedor en múltiples frentes para [the] nuclear, IA, impulso de centros de datos, así como la pieza de transición energética». La compañía ha sufrido una buena cantidad de reveses regulatorios. En 2022, la Comisión Reguladora Nuclear de EE. UU. denegó la solicitud de Oklo para un reactor de Idaho. La compañía ha estado trabajando en una nueva solicitud, que no pretende presentar a la NRC hasta principios del próximo año, dijo DeWitte, y agregó que actualmente se encuentra en la etapa de «compromiso previo a la solicitud» con la comisión. Altman se involucró con Oklo mientras era presidente de la startup. La incubadora Y Combinator entró en el programa en 2014 después de una reunión anterior entre Altman y DeWitte. En 2015, Altman invirtió en la empresa y se convirtió en presidente. No es la única incursión de Altman en la energía nuclear u otra infraestructura que podría impulsar la IA a gran escala. crecimiento.En 2021, Altman lideró una ronda de financiación de 500 millones de dólares en la empresa de energía limpia Helion, que está trabajando para desarrollar y comercializar la fusión nuclear, Helion dijo en una publicación de blog en ese momento que el capital se destinaría a su generador de demostración de electricidad, Polaris. «que esperamos demostrar electricidad neta a partir de la fusión en 2024». Altman no respondió a una solicitud de comentarios. En los últimos años, Altman también ha invertido dinero en proyectos e inversiones en chips que podrían ayudar a impulsar las herramientas de inteligencia artificial que construye OpenAI. Antes de su breve destitución como CEO de OpenAI en noviembre, supuestamente buscaba miles de millones de dólares para una empresa de chips con el nombre en código «Tigris» para eventualmente competir con Nvidia. En 2018, Altman invirtió en la startup de chips de IA Rain Neuromorphics, con sede cerca de la sede de OpenAI en San Francisco. El año siguiente, OpenAI firmó una carta de intención para gastar 51 millones de dólares en los chips de Rain. En diciembre, Estados Unidos obligó a una firma de capital de riesgo respaldada por Saudi Aramco a vender sus acciones en Rain. DeWitte dijo a CNBC que el centro de datos representa «una oportunidad bastante interesante». «Lo que hemos visto es que hay mucho interés en la IA. , específicamente», dijo. «Las necesidades de computación de la IA son importantes. Abre la puerta a muchos enfoques diferentes en términos de cómo la gente piensa sobre el diseño y el desarrollo de la infraestructura de la IA». MIRAR: Invertir en el futuro de la IA

Google mejora las ofertas de Enterprise SecOps con Gemini

La Conferencia RSA, celebrada en San Francisco del 6 al 9 de mayo, reúne a profesionales de la ciberseguridad de todo el mundo. La conferencia de este año está repleta de conversaciones sobre la IA generativa: cómo utilizar la IA generativa para protegerse contra ataques y cómo proteger la IA generativa en sí. Estamos reuniendo las noticias sobre tecnología empresarial de RSA que son más relevantes para los tomadores de decisiones tecnológicas y de TI. Este artículo se actualizará en RSA con más noticias tecnológicas destacadas. Google actualiza Google Security Operations y más con Gemini AI Google está combinando las capacidades de seguridad de la empresa de seguridad de la información Mandiant y el escáner de malware VirusTotal con Gemini AI y la huella de usuario y dispositivo de Google en una nueva oferta llamada Google Threat Intelligence. Disponible el 6 de mayo dondequiera que se distribuya Google Cloud Security, Google Threat Intelligence utiliza Gemini AI para obtener una visión de arriba hacia abajo de los datos de seguridad, compitiendo con Copilot for Security de Microsoft. Además, Google anunció: Nuevas detecciones seleccionadas para las operaciones de seguridad de Google que están diseñadas para reducir los procesos manuales y sugerir resultados relevantes para Google Cloud en general y actualizados para incluir amenazas detectadas recientemente. Servicios de consultoría de IA de Mandiant, que pueden reunir tanto las defensas de IA de una organización como cómo la seguridad de una organización podría verse comprometida por la IA. Nuevos servicios aprovechando Gemini en Seguridad. Cobertura de seguridad de lectura obligada Microsoft mejora Copilot for Security, Defender XDR, Sentinel y Purview Como parte de RSA, Microsoft anunció una variedad de nuevas herramientas y características para Microsoft Defender XDR, el portal de soluciones de seguridad. Los investigadores de seguridad que utilizan Defender XDR ahora pueden: Ver información interna sobre riesgos. Utilice protección de tecnología operativa nativa, que les permite gestionar las vulnerabilidades del sistema de control de tecnología industrial y OT directamente en Defender XDR. Aproveche las nuevas herramientas con IA para interrumpir a los usuarios comprometidos, incluso en los casos en que los atacantes hayan comprometido una cuenta individual mediante credenciales filtradas, relleno de credenciales o conjeturas. Microsoft Purview ahora puede detectar puntos de contacto de IA vulnerables. En Purview, AI Hub ahora está disponible en versión preliminar. AI Hub revela qué datos confidenciales podrían compartirse con aplicaciones de IA, incluido Microsoft Copilot, destacando posibles riesgos. El AI Hub también destacará si sus implementaciones de IA cumplen con las principales regulaciones y estándares, como la Ley de IA de la UE y el Marco de gestión de riesgos de IA del NIST. Las optimizaciones de SOC de Sentinel sugieren medidas de ahorro de costos y más. Microsoft Sentinel ahora incluirá optimizaciones de SOC, que guían al personal de seguridad en la gestión de costos, aumentando el valor de los datos y mejorando las defensas. Integraciones agregadas al asistente de IA Copilot for Security de Microsoft Microsoft Copilot for Security ahora se integra con Purview, Azure Firewall, Azure Web Application Firewall y complementos de nuevos socios seleccionados. Investigación de IBM y AWS: Los riesgos impredecibles de la IA generativa preocupan a la alta dirección IBM y AWS publicaron un informe durante RSA sobre cómo piensan los ejecutivos sobre cómo proteger la IA generativa. El informe encontró que menos de una cuarta parte (24%) de los encuestados dijeron que están incluyendo la seguridad como parte de sus proyectos de IA generativa, posiblemente una señal de que los hiperescaladores tienen un nicho en el que entrar a medida que el negocio de proteger los proyectos de IA se vuelve más común. La mayoría de los encuestados estaban preocupados por el efecto de la IA generativa en la seguridad: el 51% dijo que estaba preocupado por riesgos impredecibles y nuevas vulnerabilidades de seguridad que surgieran, y el 47% estaba atento a nuevos ataques dirigidos a la IA. IBM presentó su marco para proteger la IA generativa, que se lanzó en enero de 2024, como una solución. Los marcos de riesgo y gobernanza serán clave para ayudar a proteger la IA generativa, según afirman IBM y AWS en el informe. Además, IBM está ampliando sus servicios de prueba X-Force Red a la IA, incluidas aplicaciones de IA generativa, canalizaciones MLSecOps y modelos de IA. VER: Es temporada abierta en Firefly y Credenciales de contenido de Adobe para cazadores de recompensas de errores selectos. (TechRepublic) McAfee Deepfake Defender marcará videos falsos Mientras Intel prepara sus PC Core Ultra para la IA integrada, McAfee se ha asociado con Intel para detectar información errónea y deepfakes. Utilizando la unidad de procesamiento neuronal (también conocida como acelerador de IA), McAfee Deepfake Detector marcará videos fotorrealistas generados por IA. Deepfake Detector se reveló por primera vez en enero en el CES. El 6 de mayo en RSA, McAfee detalló que se espera Deepfake Detector “pronto”, comenzando en inglés y expandiéndose a otros idiomas. Proofpoint agrega detección de IA a los productos de seguridad del correo electrónico En RSA, Proofpoint anunció dos novedosos servicios de seguridad del correo electrónico: análisis semántico previo a la entrega, la detección basada en modelos de lenguaje grande de correos electrónicos de ingeniería social para detener el fraude por correo electrónico o los enlaces maliciosos antes de que lleguen a Microsoft 365 y Google. Bandejas de entrada del lugar de trabajo. Adaptive Email Security, una solución integrada de seguridad del correo electrónico en la nube con cuarentena automática y explicación de anomalías de comportamiento para objetivos de alto valor. Ambos servicios de seguridad de correo electrónico estarán disponibles el 6 de mayo. Adaptive Email Security está disponible solo de forma continua para clientes selectos que ya tienen paquetes de seguridad de correo electrónico estándar y han identificado empleados de alto riesgo. Cisco y Splunk amplían Cisco Hypershield El 6 de mayo en RSA, Cisco mostró uno de los primeros resultados de su adquisición de Splunk en marzo. Cisco agregó dos capacidades a su centro de datos Cisco Hypershield y a su producto de seguridad en la nube, que ahora puede: Detectar y bloquear ataques de vulnerabilidades desconocidas dentro de entornos de carga de trabajo en tiempo de ejecución. Aislar cargas de trabajo sospechosas. Cisco también anunció que los análisis de IA de Cisco Identity Intelligence ahora están disponibles en la plataforma de seguridad Cisco Duo, agregando herramientas específicas para detectar ataques basados ​​en identidad. Splunk anunció el 6 de mayo una nueva solución de inteligencia de activos y riesgos llamada Asset and Risk Intelligence. Splunk Asset and Risk Intelligence ahora está en acceso temprano. TechRepublic cubre RSA de forma remota.

Una guía completa para 2024

OpenAI puede ser el nombre más conocido cuando se trata de IA generativa comercial, pero Meta ha conseguido hacerse un hueco a través de potentes modelos de lenguaje de gran tamaño de código abierto. Meta reveló su modelo de IA generativa más grande hasta el momento, Llama 3, el 18 de abril, que supera al GPT04 en algunas pruebas estándar de IA. ¿Qué es Llama 3? Llama 3 es un LLM creado por Meta. Se puede utilizar para crear IA generativa, incluidos chatbots que puedan responder en lenguaje natural a una amplia variedad de consultas. Los casos de uso en los que se ha evaluado Llama 3 incluyen lluvia de ideas, escritura creativa, codificación, resumen de documentos y respuesta a preguntas en la voz de una persona o personaje específico. El modelo Llama 3 completo viene en cuatro variantes: 8 mil millones de parámetros preentrenados. Instrucción de 8 mil millones de parámetros ajustada. 70 mil millones de parámetros previamente entrenados. Instrucción de 70 mil millones de parámetros ajustada. Las capacidades de IA generativa de Llama 3 se pueden utilizar en un navegador, a través de funciones de IA en Facebook, Instagram, WhatsApp y Messenger de Meta. El modelo en sí se puede descargar desde Meta o desde las principales plataformas empresariales en la nube. ¿Cuándo se lanzará Llama 3 y en qué plataformas? Llama 3 se lanzó el 18 de abril en Google Cloud Vertex AI, watsonx.ai de IBM y otras grandes plataformas de alojamiento LLM. AWS siguió y agregó Llama 3 a Amazon Bedrock el 23 de abril. A partir del 29 de abril, Llama 3 está disponible en las siguientes plataformas: Databricks. Abrazando la cara. Kaggle. Microsoft Azure. NIM de NVIDIA. Las plataformas de hardware de AMD, AWS, Dell, Intel, NVIDIA y Qualcomm son compatibles con Llama 3. ¿Llama 3 es de código abierto? Llama 3 es de código abierto, como lo han sido los otros LLM de Meta. La creación de modelos de código abierto ha sido un valioso diferenciador para Meta. VER: El informe del índice de IA de Stanford revela 8 tendencias de la IA en los negocios actuales. (TechRepublic) Existe cierto debate sobre qué parte del código o los pesos de un modelo de lenguaje grande deben estar disponibles públicamente para contar como código abierto. Pero en lo que respecta a los fines comerciales, Meta ofrece una mirada más abierta a Llama 3 que sus competidores para sus LLM. ¿Llama 3 es gratis? Llama 3 es gratuito siempre que se utilice según los términos de la licencia. El modelo se puede descargar directamente desde Meta o utilizar dentro de los diversos servicios de alojamiento en la nube enumerados anteriormente, aunque esos servicios pueden tener tarifas asociadas. La página de inicio de Meta AI en un navegador ofrece opciones sobre qué pedirle a Llama 3 que haga. Imagen: Meta / Captura de pantalla de Megan Crouse ¿Llama 3 es multimodal? Llama 3 no es multimodal, lo que significa que no es capaz de comprender datos de diferentes modalidades como vídeo, audio o texto. Meta planea hacer que Llama 3 sea multimodal en un futuro próximo. Mejoras de Llama 3 sobre Llama 2 Para hacer que Llama 3 sea más capaz que Llama 2, Meta agregó un nuevo tokenizador para codificar el lenguaje de manera mucho más eficiente. Meta mejoró Llama 3 con atención de consultas agrupadas, un método para mejorar la eficiencia de la inferencia del modelo. El conjunto de entrenamiento de Llama 3 es siete veces mayor que el conjunto de entrenamiento utilizado para Llama 2, dijo Meta, e incluye cuatro veces más código. Meta aplicó nuevas eficiencias al preentrenamiento y al ajuste de instrucciones de Llama 3. Dado que Llama 3 está diseñado como un modelo abierto, Meta agregó barreras de seguridad pensando en los desarrolladores. Una nueva barrera de seguridad es Code Shield, cuyo objetivo es detectar el código inseguro que el modelo pueda producir. ¿Qué sigue para Llama 3? Meta planea: Agregar varios idiomas a Llama 3. Expandir la ventana contextual. Generalmente aumenta las capacidades del modelo en el futuro. Meta está trabajando en un modelo de parámetros 400B, que puede ayudar a dar forma a la próxima generación de Llama 3. En las primeras pruebas, Llama 3 400B con ajuste de instrucciones obtuvo una puntuación de 86,1 en la evaluación de conocimientos MMLU (una prueba comparativa de IA), según Meta, lo que lo convierte en competitivo con GPT-4. Llama 400B sería el LLM más grande de Meta hasta el momento. El lugar de Llama 3 en el competitivo panorama de la IA generativa Llama 3 compite directamente con GPT-4 y GPT-3.5, Gemini y Gemma de Google, Mistral 7B de Mistral AI, Perplexity AI y otros LLM para uso individual o comercial para construir chatbots de IA generativa y otros. herramientas. Aproximadamente una semana después de que se revelara Llama 3, Snowflake presentó su propia IA empresarial abierta con capacidades comparables, llamada Snowflake Arctic. Los crecientes requisitos de rendimiento de LLM como Llama 3 están contribuyendo a una carrera armamentista de PC con IA que pueden ejecutar modelos al menos parcialmente en el dispositivo. Mientras tanto, las empresas de IA generativa pueden enfrentar un mayor escrutinio por sus grandes necesidades informáticas, lo que podría contribuir a empeorar el cambio climático. Llama 3 vs GPT-4 Llama 3 supera al GPT-4 de OpenAI en HumanEval, que es un punto de referencia estándar que compara la capacidad del modelo de IA para generar código con el código escrito por humanos. Llama 3 70B obtuvo una puntuación de 81,7, en comparación con la puntuación de 67 de GPT-4. Sin embargo, GPT-4 superó a Llama 3 en la evaluación de conocimientos MMLU con una puntuación de 86,4 frente a 79,5 de Llama 3 70B. El rendimiento de Llama 3 en más pruebas se puede encontrar en la publicación del blog de Meta.

IBM adquiere HashiCorp por 6.400 millones de dólares y amplía la oferta de nube híbrida

IBM adquirirá HashiCorp, con sede en San Francisco, por 6.400 millones de dólares, anunció IBM durante su llamada de resultados del primer trimestre el 24 de abril. Se espera que el acuerdo se cierre a finales de 2024. La adquisición es parte de un esfuerzo para ampliar la nube híbrida, multinube y Portafolio de IA. En última instancia, IBM planea utilizar los recursos de HashiCorp para crear una plataforma en la nube de un extremo a otro. «Las carteras combinadas de IBM y HashiCorp ayudarán a los clientes a gestionar la creciente complejidad de las aplicaciones e infraestructuras y a crear una plataforma integral de nube híbrida diseñada para la era de la IA», dijo Arvind Krishna, presidente y director ejecutivo de IBM, en un comunicado de prensa sobre las ganancias del primer trimestre de IBM. . «El liderazgo de IBM en nube híbrida junto con su rica historia de innovación lo convierten en el hogar ideal para HashiCorp a medida que ingresamos a la siguiente fase de nuestro viaje de crecimiento», dijo Dave McJannet, director ejecutivo de HashiCorp, en un comunicado de prensa. Lo que HashiCorp aporta a IBM HashiCorp crea la plataforma HashiCorp Cloud para aplicaciones críticas, que incluye gestión del ciclo de vida y seguridad. HashiCorp Cloud Platform admite la integración con los principales proveedores de la nube como Google y AWS. VER: Una encuesta de IBM encontró que alrededor del 42% de las empresas de escala empresarial han implementado IA generativa. (TechRepublic) La adquisición por parte de IBM permitirá a HashiCorp acceder a un grupo más amplio de clientes y trabajar en estrecha colaboración con IBM en implementaciones de automatización multinube. Las capacidades de automatización de la seguridad y gestión del ciclo de vida de HashiCorp proporcionan un sistema de registro que ayuda a gestionar entornos híbridos y multinube. En particular, IBM destacó Terraform de HashiCorp, “el estándar de la industria para el aprovisionamiento de infraestructura” en entornos híbridos y multinube. HashiCorp registró ingresos de 583,1 millones de dólares en el año fiscal 2024. Nube: cobertura de lectura obligada Los productos de HashiCorp podrían ayudar a las empresas a gestionar cargas de trabajo de IA generativa La IA generativa es un importante impulsor para las empresas de nube en la actualidad. HashiCorp aporta a IBM una infraestructura adecuada para productos de IA generativa. En particular, IBM identificó las herramientas de automatización de HashiCorp para “infraestructura heterogénea, dinámica y compleja” como útiles para clientes que de otro modo podrían verse abrumados por la expansión y la cantidad de posibles aplicaciones de IA. Los productos de HashiCorp podrían ayudar a IBM a gestionar entornos de nube cada vez más complejos. En el comunicado de prensa sobre la adquisición, el cofundador de HashiCorp, Armon Dadgar, escribió sobre los cambios ocurridos en la última década en la forma en que las empresas ven la nube, desde la informática local hasta la híbrida y ampliamente distribuida. multinube. «El impacto transformador de la nube pública también dejó claro que inevitablemente viviríamos en un mundo multinube», afirmó. Si más organizaciones comienzan a implementar IA generativa en la nube, la gestión híbrida y multinube se volverá más compleja; IBM espera que HashiCorp ayude a convertirlos en la primera opción para las organizaciones que intentan manejar esa complejidad. ¿Qué más significa la adquisición de HashiCorp por parte de IBM para los compradores de tecnología empresarial? La adquisición, en la que IBM obtiene la experiencia de HashiCorp en infraestructura y aplicaciones de nube, y HashiCorp obtiene el soporte y una gran base de clientes de IBM, probablemente traerá más opciones a los consumidores para productos combinados de las dos organizaciones en el futuro. HashiCorp conservará su propia marca e identidad como división de IBM Software. Cuando le pedimos a IBM comentarios adicionales, la compañía nos remitió al comunicado de prensa y al informe de ganancias.

Los creadores del corto impulsado por Sora explican las fortalezas y limitaciones del video generado por IA

La herramienta de generación de vídeo de OpenAI, Sora, tomó por sorpresa a la comunidad de IA en febrero con un vídeo fluido y realista que parece estar muy por delante de la competencia. Pero el debut cuidadosamente organizado omitió muchos detalles, detalles que fueron completados por un cineasta al que se le dio acceso temprano para crear un corto con Sora. Shy Kids es un equipo de producción digital con sede en Toronto que fue elegido por OpenAI como uno de los pocos para producir cortometrajes esencialmente con fines promocionales de OpenAI, aunque se les dio una considerable libertad creativa para crear «cabeza de aire». En una entrevista con el medio de noticias de efectos visuales fxguide, el artista de postproducción Patrick Cederberg describió “realmente usar a Sora” como parte de su trabajo. Quizás la conclusión más importante para la mayoría es simplemente esta: si bien la publicación de OpenAI que destaca los cortos permite al lector asumir que surgieron más o menos completamente formados de Sora, la realidad es que se trataba de producciones profesionales, completas con un guión gráfico sólido, edición, corrección de color, y trabajos posteriores como rotoscopia y VFX. Así como Apple dice «filmado con iPhone» pero no muestra la configuración del estudio, la iluminación profesional y el trabajo de color después del hecho, la publicación de Sora solo habla de lo que permite hacer a las personas, no de cómo lo hicieron realmente. La entrevista de Cederberg es interesante y nada técnica, así que si estás interesado en algo, dirígete a fxguide y léela. Pero aquí hay algunas cosas interesantes sobre el uso de Sora que nos dicen que, por muy impresionante que sea, el modelo quizás sea un paso de gigante menor de lo que pensábamos. El control sigue siendo lo más deseable y también lo más difícil de alcanzar en este momento. … Lo más cerca que pudimos llegar fue simplemente ser hiperdescriptivos en nuestras indicaciones. Explicar el vestuario de los personajes, así como el tipo de globo, fue nuestra forma de lograr la coherencia porque, plano a plano/generación en generación, todavía no existe la característica establecida para un control total sobre la coherencia. En otras palabras, cuestiones que son simples en el cine tradicional, como elegir el color de la ropa de un personaje, requieren soluciones y controles elaborados en un sistema generativo, porque cada plano se crea independientemente de los demás. Obviamente, eso podría cambiar, pero ciertamente es mucho más laborioso en este momento. También había que vigilar las salidas de Sora para detectar elementos no deseados: Cederberg describió cómo el modelo generaba rutinariamente una cara en el globo que el personaje principal tiene como cabeza, o una cuerda colgando del frente. Estos debían eliminarse en la publicación, otro proceso que requería mucho tiempo, si no recibían el mensaje para excluirlos. La sincronización y los movimientos precisos de los personajes o de la cámara no son realmente posibles: «Hay un poco de control temporal sobre dónde ocurren estas diferentes acciones en la generación real, pero no es preciso… es una especie de toma en la oscuridad», dijo Cederberg. Por ejemplo, cronometrar un gesto como un saludo es un proceso muy aproximado basado en sugerencias, a diferencia de las animaciones manuales. Y una toma como una panorámica hacia arriba en el cuerpo del personaje puede reflejar o no lo que quiere el cineasta, por lo que en este caso el equipo renderizó una toma compuesta en orientación vertical y recortó una panorámica en la posproducción. Los clips generados también a menudo estaban en cámara lenta sin ningún motivo en particular. Ejemplo de un disparo como salió de Sora y cómo acabó en el corto. Créditos de imagen: Shy Kids De hecho, el uso del lenguaje cotidiano del cine, como “panorámica hacia la derecha” o “plano de seguimiento”, era inconsistente en general, dijo Cederberg, lo que el equipo encontró bastante sorprendente. «Los investigadores, antes de acercarse a los artistas para que jugaran con la herramienta, en realidad no habían pensado como cineastas», dijo. Como resultado, el equipo hizo cientos de generaciones, cada una de 10 a 20 segundos, y terminó usando solo unas pocas. Cederberg estimó la proporción en 300:1, pero, por supuesto, probablemente a todos nos sorprendería la proporción en una sesión normal. De hecho, el equipo hizo un pequeño video detrás de escena explicando algunos de los problemas que encontraron, si tiene curiosidad. Como gran parte del contenido adyacente a la IA, los comentarios son bastante críticos con todo el esfuerzo, aunque no tan vituperantes como el anuncio asistido por IA que vimos ridiculizado recientemente. El último aspecto interesante tiene que ver con los derechos de autor: si le pides a Sora que te dé un clip de “Star Wars”, se negará. Y si intentas eludirlo con “un hombre vestido con una espada láser en una nave espacial retrofuturista”, también se negará, ya que mediante algún mecanismo reconoce lo que estás tratando de hacer. También se negó a hacer un “plano tipo Aronofsky” o un “zoom de Hitchcock”. Por un lado, tiene mucho sentido. Pero sí plantea la pregunta: si Sora sabe cuáles son, ¿eso significa que el modelo fue entrenado en ese contenido para reconocer mejor que está infringiendo? OpenAI, que mantiene sus tarjetas de datos de entrenamiento en secreto (hasta el punto de lo absurdo, como en la entrevista de la CTO Mira Murati con Joanna Stern), es casi seguro que nunca nos lo dirá. En cuanto a Sora y su uso en la realización cinematográfica, es claramente una herramienta poderosa y útil en su lugar, pero su lugar no es «crear películas de la nada». Todavía. Como dijo una vez otro villano, «eso viene después».

California examina los beneficios y riesgos del uso de inteligencia artificial en el gobierno estatal

La inteligencia artificial que puede generar texto, imágenes y otros contenidos podría ayudar a mejorar los programas estatales, pero también plantea riesgos, según un informe publicado por la oficina del gobernador el martes. La IA generativa podría ayudar a traducir rápidamente materiales gubernamentales a varios idiomas y analizar declaraciones fiscales para detectar fraude, resumir comentarios públicos y responder preguntas sobre servicios estatales. Aún así, el análisis advirtió que la implementación de la tecnología también conlleva preocupaciones en torno a la privacidad de los datos, la desinformación, la equidad y el sesgo. “Cuando se usa de manera ética y transparente, GenAI tiene el potencial de mejorar drásticamente los resultados de la prestación de servicios y aumentar el acceso y la utilización de los programas gubernamentales. ”, afirma el informe. El informe de 34 páginas, encargado por el gobernador Gavin Newsom, ofrece una idea de cómo California podría aplicar la tecnología a programas estatales incluso cuando los legisladores luchan por cómo proteger a las personas sin obstaculizar la innovación. Las preocupaciones sobre la seguridad de la IA han dividido a los ejecutivos de tecnología. Líderes como el multimillonario Elon Musk han hecho sonar la alarma de que la tecnología podría conducir a la destrucción de la civilización, señalando que si los humanos se vuelven demasiado dependientes de la automatización, eventualmente podrían olvidar cómo funcionan las máquinas. Otros ejecutivos de tecnología tienen una visión más optimista sobre el potencial de la IA para ayudar a salvar a la humanidad al facilitar la lucha contra el cambio climático y las enfermedades. Al mismo tiempo, las principales empresas de tecnología, incluidas Google, Facebook y OpenAI, respaldada por Microsoft, están compitiendo entre sí para desarrollar y lanzar nuevas herramientas de IA que puedan producir contenido. El informe también llega en un momento en que la IA generativa está alcanzando otro punto de inflexión importante. La semana pasada, la junta directiva del fabricante de ChatGPT OpenAI despidió al director ejecutivo Sam Altman por no ser “consistentemente sincero en sus comunicaciones con la junta directiva”, lo que sumió a la empresa y al sector de la IA en el caos. El martes por la noche, OpenAI dijo que había llegado a “un acuerdo de principio” para que Altman regresara como director ejecutivo y la empresa nombrara miembros de una nueva junta directiva. La empresa enfrentó presiones para reintegrar a Altman por parte de inversores, ejecutivos de tecnología y empleados, que amenazaron con renunciar. OpenAI no ha proporcionado detalles públicamente sobre lo que llevó al sorpresivo derrocamiento de Altman, pero, según se informa, la compañía tuvo desacuerdos sobre mantener segura la IA y al mismo tiempo ganar dinero. Una junta sin fines de lucro controla OpenAI, una estructura de gobierno inusual que hizo posible expulsar al CEO. Newsom calificó el informe de IA como un “primer paso importante” mientras el estado sopesa algunas de las preocupaciones de seguridad que conlleva la IA. «Estamos adoptando un enfoque mesurado y matizado: comprender los riesgos que plantea esta tecnología transformadora y al mismo tiempo examinar cómo aprovechar sus beneficios», dijo en un comunicado. Los avances en la IA podrían beneficiar a la economía de California. El estado alberga a 35 de las 50 principales empresas de IA del mundo y los datos de Pitchbook dicen que el mercado de GenAI podría alcanzar los 42.600 millones de dólares en 2023, según el informe. Algunos de los riesgos descritos en el informe incluyen la difusión de información falsa y dar a los consumidores consejos médicos peligrosos. y permitir la creación de sustancias químicas nocivas y armas nucleares. Las filtraciones de datos, la privacidad y los prejuicios también son las principales preocupaciones, además de si la IA eliminará puestos de trabajo. “Dados estos riesgos, el uso de la tecnología GenAI siempre debe evaluarse para determinar si esta herramienta es necesaria y beneficiosa para resolver un problema en comparación con el estado actual. quo”, dice el informe. Mientras el estado trabaja en pautas para el uso de IA generativa, el informe dice que, mientras tanto, los empleados estatales deben cumplir con ciertos principios para salvaguardar los datos de los californianos. Por ejemplo, los empleados estatales no deberían proporcionar datos de los californianos a herramientas de IA generativa como ChatGPT o Bard de Google ni utilizar herramientas no aprobadas en dispositivos estatales, según el informe. El uso potencial de la IA va más allá del gobierno estatal. Los organismos encargados de hacer cumplir la ley, como la policía de Los Ángeles, planean utilizar inteligencia artificial para analizar el tono y la elección de palabras de los agentes en los videos de las cámaras corporales. Los esfuerzos de California para regular algunas de las preocupaciones de seguridad, como los prejuicios que rodean a la IA, no ganaron mucho impulso durante la última sesión legislativa. Pero los legisladores han presentado nuevos proyectos de ley para abordar algunos de los riesgos de la IA cuando regresen en enero, como proteger a los trabajadores del entretenimiento de ser reemplazados por clones digitales. Mientras tanto, los reguladores de todo el mundo todavía están descubriendo cómo proteger a las personas de los riesgos potenciales de la IA. En octubre, el presidente Biden emitió una orden ejecutiva que describía estándares en materia de seguridad a medida que los desarrolladores crean nuevas herramientas de inteligencia artificial. La regulación de la IA fue un tema importante de discusión en la reunión de Cooperación Económica Asia-Pacífico en San Francisco la semana pasada. Durante un panel de discusión con ejecutivos de Google y la empresa matriz de Facebook, Meta, Altman dijo que pensaba que la orden ejecutiva de Biden era un «buen comienzo». “Aunque había áreas de mejora. Los modelos actuales de IA, dijo, están «buenos» y no se necesita una «regulación estricta», pero expresó preocupación por el futuro. «En algún momento, cuando el modelo pueda generar la producción equivalente a toda una empresa y luego a todo un país y luego a todo el mundo, tal vez queramos algún tipo de supervisión global colectiva de eso», dijo, un día antes de ser despedido como director ejecutivo de OpenAI.

Se espera que el gasto en TI crezca un 8% en 2024

Es probable que el gasto mundial en TI crezca un 8% hasta los 5,06 billones de dólares este año, según el pronóstico de gasto en TI de Gartner para 2024. Los sistemas y software de centros de datos son los segmentos que se espera que impulsen más ese crecimiento. Gartner hizo sus predicciones analizando las ventas de productos y servicios de TI en los segmentos de hardware, software, servicios de TI y telecomunicaciones. La firma de analistas investiga a más de 1000 proveedores y mantiene una base de datos trimestral con datos sobre el tamaño del mercado. Los planes de IA generativa impulsan a TI a reforzar los servicios de centros de datos. Se prevé que la cantidad de dinero gastada en servicios de centros de datos aumentará un 10% a 260 mil millones de dólares desde 236 mil millones de dólares en 2024 (Figura A). Muchas empresas con las que Gartner ha hablado dicen que planean implementar productos, servicios y casos de uso de IA generativa en 2025, lo que requiere un mayor gasto en centros de datos. Gartner experimentó un crecimiento interanual del 10% en el gasto en centros de datos. Figura A Gartner predice que el gasto mundial en TI en sistemas de centros de datos será el que más se acelerará en comparación con todos los segmentos que sigue la empresa. Imagen: Gartner “También hay un gasto al nivel de la fiebre del oro por parte de los proveedores de servicios en los mercados que respaldan proyectos GenAI a gran escala, como servidores y semiconductores”, afirmó en el comunicado de prensa John-David Lovelock, distinguido vicepresidente analista de Gartner. Cobertura CXO de lectura obligada El gasto en dispositivos móviles se recupera en ciclos generacionales cortos. Si bien el gasto en centros de datos aumentó, el gasto en dispositivos cayó en 2023 y se recuperó ligeramente de $ 664 mil millones a $ 688 mil millones en 2024, lo que muestra un crecimiento del 3,6 %. La causa del crecimiento podría ser, en cambio, un ciclo de actualización acelerado, en el que más empresas telefónicas y consumidores reemplazan los teléfonos más rápidamente. «Las empresas y los consumidores estaban felices de conservar sus dispositivos por más tiempo, reduciendo la cantidad de dispositivos comprados incluso al año simplemente como reemplazo de los dispositivos que poseen actualmente», dijo Lovelock a TechRepublic por correo electrónico. «2024 marca un año de cambio y las ventas de dispositivos están aumentando con respecto al año anterior». La inclusión de IA generativa en algunas marcas de teléfonos no está detrás de este cambio, pero lo «sostiene», señaló Gartner. «Las funciones de inteligencia artificial (chips NPU y TPU) integradas en los teléfonos inteligentes y las PC son insuficientes para que las empresas y los consumidores actualicen sus dispositivos», dijo Lovelock a TechRepublic. «Sin una aplicación innovadora que se ejecute de forma nativa en el dispositivo y requiera capacidad de IA, es bueno tener capacidad de IA que ayudará a sostener los reemplazos y actualizaciones sin necesidad de ellas». La contratación de dinero gira hacia empresas de servicios de TI Por primera vez que Gartner lo ha visto, se está gastando más dinero en empresas de consultoría que en personal interno de TI, dijo Lovelock. Esto se debe a que “las empresas se están quedando rápidamente atrás de las empresas de servicios de TI en términos de atraer talento con habilidades clave de TI”, se cita a Lovelock en el comunicado de prensa. “Esto crea una mayor necesidad de inversión en consultoría en comparación con el personal interno. VER: En Australia y Nueva Zelanda, el crecimiento del gasto en TI estará impulsado por la ciberseguridad, la nube y los datos, descubrió Gartner. «Con el gasto en servicios de TI en camino de crecer un 9,7% para eclipsar los 1,52 billones de dólares, esta categoría está en camino de convertirse en el mercado más grande seguido por Gartner», dijo Lovelock en el comunicado de prensa. Tendencias de gasto en software y servicios de comunicaciones Los otros segmentos en el pronóstico de gasto en TI según el seguimiento de Gartner, y su crecimiento previsto en 2024 son: Software, 13,9%. Servicios de comunicaciones, 4,3%.

Meta lanza Llama 3 y afirma que se encuentra entre los mejores modelos abiertos disponibles

Meta ha lanzado la última entrada de su serie Llama de modelos de IA generativa de código abierto: Llama 3. O, más exactamente, la compañía ha abierto dos modelos de su nueva familia Llama 3, y el resto llegará en una fecha futura no especificada. Meta describe los nuevos modelos (Llama 3 8B, que contiene 8 mil millones de parámetros, y Llama 3 70B, que contiene 70 mil millones de parámetros) como un «gran salto» en comparación con los modelos Llama de la generación anterior, Llama 2 8B y Llama 2 70B. En cuanto al rendimiento. (Los parámetros definen esencialmente la habilidad de un modelo de IA en un problema, como analizar y generar texto; los modelos con un mayor número de parámetros son, en términos generales, más capaces que los modelos con un menor número de parámetros). De hecho, Meta dice que, por ejemplo, sus respectivos recuentos de parámetros, Llama 3 8B y Llama 3 70B, entrenados en dos grupos de 24.000 GPU personalizados, se encuentran entre los modelos de IA generativa de mejor rendimiento disponibles en la actualidad. Es una gran afirmación. Entonces, ¿cómo lo apoya Meta? Bueno, la compañía señala las puntuaciones de los modelos Llama 3 en puntos de referencia de IA populares como MMLU (que intenta medir el conocimiento), ARC (que intenta medir la adquisición de habilidades) y DROP (que prueba el razonamiento de un modelo sobre fragmentos de texto). Como hemos escrito antes, la utilidad (y validez) de estos puntos de referencia es objeto de debate. Pero para bien o para mal, siguen siendo una de las pocas formas estandarizadas mediante las cuales los jugadores de IA como Meta evalúan sus modelos. Llama 3 8B supera a otros modelos de código abierto como Mistral 7B de Mistral y Gemma 7B de Google, los cuales contienen 7 mil millones de parámetros, en al menos nueve puntos de referencia: MMLU, ARC, DROP, GPQA (un conjunto de biología, física y química). preguntas relacionadas), HumanEval (una prueba de generación de código), GSM-8K (problemas escritos de matemáticas), MATH (otro punto de referencia de matemáticas), AGIEval (un conjunto de pruebas de resolución de problemas) y BIG-Bench Hard (una evaluación de razonamiento de sentido común). Ahora, Mistral 7B y Gemma 7B no están exactamente a la vanguardia (Mistral 7B se lanzó en septiembre pasado), y en algunos de los puntos de referencia que cita Meta, Llama 3 8B obtiene solo unos pocos puntos porcentuales más que cualquiera de los dos. Pero Meta también afirma que el modelo Llama 3 con mayor número de parámetros, Llama 3 70B, es competitivo con los modelos emblemáticos de IA generativa, incluido el Gemini 1.5 Pro, el último de la serie Gemini de Google. Créditos de imagen: Meta Llama 3 70B supera a Gemini 1.5 Pro en MMLU, HumanEval y GSM-8K y, aunque no rivaliza con el modelo más eficaz de Anthropic, Claude 3 Opus, Llama 3 70B obtiene una puntuación mejor que el modelo más débil de Claude 3. serie, Claude 3 Sonnet, en cinco puntos de referencia (MMLU, GPQA, HumanEval, GSM-8K y MATH). Créditos de imagen: Meta Por si sirve de algo, Meta también desarrolló su propio conjunto de pruebas que cubre casos de uso que van desde la codificación y la creación de escritos hasta el razonamiento y el resumen, y… ¡sorpresa! — Llama 3 70B venció al modelo Mistral Medium de Mistral, GPT-3.5 de OpenAI y Claude Sonnet. Meta dice que impidió que sus equipos de modelos accedieran al set para mantener la objetividad, pero obviamente, dado que Meta mismo ideó la prueba, los resultados deben tomarse con cautela. Créditos de imagen: Meta Más cualitativamente, Meta dice que los usuarios de los nuevos modelos Llama deberían esperar más «dirección», una menor probabilidad de negarse a responder preguntas y una mayor precisión en preguntas de trivia, preguntas relacionadas con la historia y campos STEM como ingeniería y recomendaciones científicas y generales de codificación. Esto se debe en parte a un conjunto de datos mucho más grande: una colección de 15 billones de tokens, o la alucinante cantidad de ~750.000.000.000 de palabras, siete veces el tamaño del conjunto de entrenamiento de Llama 2. (En el campo de la IA, “tokens” se refiere a bits subdivididos de datos sin procesar, como las sílabas “fan”, “tas” y “tic” en la palabra “fantástico”). ¿De dónde provienen estos datos? Buena pregunta. Meta no lo dijo, revelando solo que se basó en «fuentes disponibles públicamente», incluyó cuatro veces más código que en el conjunto de datos de entrenamiento de Llama 2 y que el 5% de ese conjunto tiene datos que no están en inglés (en ~30 idiomas). para mejorar el rendimiento en idiomas distintos del inglés. Meta también dijo que utilizó datos sintéticos, es decir, datos generados por IA, para crear documentos más largos para que los modelos Llama 3 se entrenaran, un enfoque algo controvertido debido a los posibles inconvenientes de rendimiento. «Si bien los modelos que lanzamos hoy solo están ajustados para los resultados en inglés, la mayor diversidad de datos ayuda a los modelos a reconocer mejor los matices y patrones, y a desempeñarse con fuerza en una variedad de tareas», escribe Meta en una publicación de blog compartida con TechCrunch. Muchos proveedores de IA generativa ven los datos de entrenamiento como una ventaja competitiva y, por lo tanto, los mantienen junto con la información correspondiente cerca del cofre. Pero los detalles de los datos de capacitación también son una fuente potencial de demandas relacionadas con la propiedad intelectual, otro desincentivo para revelar mucho. Informes recientes revelaron que Meta, en su búsqueda por mantener el ritmo de sus rivales en IA, en un momento utilizó libros electrónicos protegidos por derechos de autor para la capacitación en IA a pesar de las advertencias de los propios abogados de la compañía; Meta y OpenAI son objeto de una demanda en curso presentada por autores, incluida la comediante Sarah Silverman, por el presunto uso no autorizado de datos protegidos por derechos de autor por parte de los proveedores para capacitación. Entonces, ¿qué pasa con la toxicidad y el sesgo, otros dos problemas comunes con los modelos de IA generativa (incluido Llama 2)? ¿Llama 3 mejora en esas áreas? Sí, afirma Meta. Meta dice que desarrolló nuevos canales de filtrado de datos para mejorar la calidad de los datos de entrenamiento de su modelo y que actualizó su par de suites de seguridad de IA generativa, Llama Guard y CybersecEval, para intentar evitar el uso indebido y las generaciones de texto no deseado de Llama. 3 modelos y otros. La compañía también está lanzando una nueva herramienta, Code Shield, diseñada para detectar código de modelos generativos de IA que podrían introducir vulnerabilidades de seguridad. Sin embargo, el filtrado no es infalible y herramientas como Llama Guard, CybersecEval y Code Shield solo llegan hasta cierto punto. (Ver: La tendencia de Llama 2 a inventar respuestas a preguntas y filtrar información privada de salud y financiera). Tendremos que esperar y ver cómo se desempeñan los modelos Llama 3 en la naturaleza, incluidas las pruebas de académicos en puntos de referencia alternativos. Meta dice que los modelos Llama 3, que ya están disponibles para descargar y que impulsan el asistente Meta AI de Meta en Facebook, Instagram, WhatsApp, Messenger y la web, pronto se alojarán en forma administrada en una amplia gama de plataformas en la nube, incluida AWS. Databricks, Google Cloud, Hugging Face, Kaggle, WatsonX de IBM, Microsoft Azure, NIM de Nvidia y Snowflake. En el futuro también estarán disponibles versiones de los modelos optimizados para hardware de AMD, AWS, Dell, Intel, Nvidia y Qualcomm. Y hay modelos más capaces en el horizonte. Meta dice que actualmente está entrenando modelos Llama 3 con más de 400 mil millones de parámetros de tamaño: modelos con la capacidad de «conversar en múltiples idiomas», tomar más datos y comprender imágenes y otras modalidades, así como texto, lo que traería la serie Llama 3. en línea con lanzamientos abiertos como Idefics2 de Hugging Face. Créditos de imagen: Meta “Nuestro objetivo en el futuro cercano es hacer que Llama 3 sea multilingüe y multimodal, tenga un contexto más amplio y continúe mejorando el rendimiento general en todos los núcleos. [large language model] capacidades como el razonamiento y la codificación”, escribe Meta en una publicación de blog. «Hay mucho más por venir». En efecto.

Intel, VMware, Linux Foundation y otros forman una plataforma abierta para la IA empresarial

Con el fin de proporcionar marcos abiertos para capacidades de IA generativa en todos los ecosistemas, como la generación de recuperación aumentada, la Fundación Linux, Intel y otras empresas y grupos han creado la Plataforma Abierta para la IA Empresarial. ¿Qué es la plataforma abierta para la IA empresarial? OPEA es un proyecto sandbox dentro de LF AI & Data Foundation, parte de la Fundación Linux. El plan es fomentar la adopción de tecnologías de IA generativa abiertas y crear “sistemas GenAI flexibles y escalables que aprovechen la mejor innovación de código abierto de todo el ecosistema”, según un comunicado de prensa de OPEA. A la iniciativa se han sumado las siguientes empresas y grupos: Anyscale. Nubera. DatosStax. Laboratorio de datos de Domino. Abrazando la cara. Intel. KX. Fundación MaríaDB. MinIO. Qdrant. Sombrero rojo. SAS. VMware (adquirida por Broadcom). Datos de ladrillo amarillo. Zilliz. Idealmente, la iniciativa podría resultar en una mayor interoperabilidad entre productos y servicios de esos proveedores. «A medida que GenAI madura, la integración en la TI existente es un paso natural y necesario», dijo Kaj Arnö, director ejecutivo de la Fundación MariaDB, en un comunicado de prensa de OPEA. ¿Qué creó la OPEA? La idea es encontrar nuevos casos de uso para la IA, particularmente verticalmente en la pila de tecnología, a través de un modelo de gobernanza abierto y colaborativo. Para ello, OPEA creó un marco de bloques de construcción componibles para sistemas generativos de IA, desde la capacitación hasta el almacenamiento de datos y las indicaciones. OPEA también creó una evaluación para calificar el rendimiento, las características, la confiabilidad y la preparación a nivel empresarial de los sistemas de IA generativa y los planos para la estructura de la pila de componentes y los flujos de trabajo de RAG. Intel, en particular, proporcionará lo siguiente: Un marco conceptual técnico. Implementaciones de referencia para implementar IA generativa en procesadores Intel Xeon y aceleradores Intel Gaudi AI. Más capacidad de infraestructura en Intel Tiber Developer Cloud para el desarrollo del ecosistema, la aceleración de la IA y la validación de RAG y futuras canalizaciones. «Abogar por una base de código abierto y estándares, desde conjuntos de datos hasta formatos, API y modelos, permite a las organizaciones y empresas construir de forma transparente», dijo AB Periasamy, director ejecutivo y cofundador de MinIO, en un comunicado de prensa de OMEA. «La infraestructura de datos de IA también debe construirse sobre estos principios abiertos». Más cobertura de IA de lectura obligada ¿Por qué es tan importante RAG? La generación de recuperación aumentada, en la que los modelos de IA generativa verifican con datos públicos o de la empresa del mundo real antes de proporcionar una respuesta, está demostrando ser valiosa en el uso empresarial de la IA generativa. RAG ayuda a las empresas a confiar en que la IA generativa no arrojará respuestas sin sentido que parezcan convincentes. OPEA espera que RAG (Figura A) pueda permitir que la IA generativa extraiga más valor de los depósitos de datos que las empresas ya tienen. Figura A Una tubería que muestra la arquitectura RAG. Imagen: OMEA “Estamos encantados de darle la bienvenida a OPEA a LF AI & Data con la promesa de ofrecer canales de generación de recuperación aumentada (RAG) de código abierto, estandarizados, modulares y heterogéneos para empresas con un enfoque en el desarrollo de modelos abiertos, reforzados y optimizados. soporte de varios compiladores y cadenas de herramientas”, dijo el director ejecutivo de LF AI & Data, Ibrahim Haddad, en un comunicado de prensa. No existen estándares de facto para implementar RAG, señaló Intel en su publicación de anuncio; La OPEA pretende llenar ese vacío. VER: Nombramos a RAG una de las principales tendencias de IA de 2024. «Estamos viendo un enorme entusiasmo entre nuestra base de clientes por RAG», dijo Chris Wolf, director global de IA y servicios avanzados de Broadcom, en un comunicado de prensa de OPEA. “Las estructuras detrás de RAG se pueden aplicar universalmente a una variedad de casos de uso, lo que hace que un enfoque impulsado por la comunidad que impulse la coherencia y la interoperabilidad de las aplicaciones RAG sea un importante paso adelante para ayudar a todas las organizaciones a aprovechar de forma segura los numerosos beneficios que la IA tiene para ofrecer. “Añadió Lobo. ¿Cómo pueden participar las organizaciones en OPEA? Las organizaciones pueden participar contribuyendo en GitHub o comunicándose con OPEA.

Cómo el gobierno de EE. UU. regula la IA

El gobierno de Estados Unidos está considerando leyes para ayudar a la sociedad a adaptarse a la introducción de la inteligencia artificial. Los primeros usuarios de la tecnología ya están viendo ganancias en la productividad laboral. Por ejemplo, Klarna, un proveedor de servicios financieros compre ahora y pague después, estima que su herramienta asistente de inteligencia artificial aumentará sus ganancias en 40 millones de dólares para fines de 2024. «Básicamente hace el trabajo de 700 agentes a tiempo completo», Klarna dijo el director ejecutivo Sebastian Siemiatkowski en una entrevista con CNBC. «Básicamente, era capaz de encargarse de dos tercios de todos los recados entrantes que teníamos a través del chat». La herramienta asistente de inteligencia artificial de Klarna se basa en los sistemas OpenAI, que impulsan tanto ChatGPT como Sora, dos productos que han captado la atención de ambos. el público en general y el Congreso. En 2023, los miembros del Congreso convocaron paneles, cenas privadas y sesiones de aprendizaje con ejecutivos tecnológicos de alto perfil, incluido Sam Altman, director ejecutivo de OpenAI. La Casa Blanca siguió buscando el compromiso de 15 líderes de la industria privada para ayudar a los legisladores a comprender la mejor manera de identificar riesgos y hacer uso de las nuevas tecnologías. La lista incluye algunos de los actores más importantes del sector tecnológico, junto con recién llegados como Anthropic y OpenAI. El Grupo de Trabajo del Senado sobre IA, establecido en 2019, ha aprobado al menos 15 proyectos de ley que se centran en la investigación y la evaluación de riesgos. Pero en comparación con las medidas aprobadas por la Unión Europea en 2024, el entorno regulatorio estadounidense parece relativamente relajado. «La gente de Bruselas elabora muchas reglas burocráticas que dificultan que las empresas innoven», Erik Brynjolfsson. , dijo en una entrevista con CNBC un investigador principal del Instituto Stanford para la IA centrada en el ser humano. «El entorno empresarial no existe como en Estados Unidos». Los economistas han estado preocupados durante años de que la inteligencia artificial pueda hundir las perspectivas laborales de los trabajadores administrativos, de manera similar a los efectos que la globalización ha tenido en los trabajadores manuales en los Estados Unidos. pasado. Un estudio del Fondo Monetario Internacional sugiere que al menos el 60% del trabajo en las economías avanzadas estaría expuesto a cambios derivados de la adopción generalizada de la inteligencia artificial. En 2023, los legisladores de la Asamblea del Estado de Nueva York propusieron una medida para limitar la impacto esperado de los despidos impulsados ​​por la tecnología con impuestos a los robots. La idea es introducir un costo para las empresas que utilizan la tecnología para desplazar trabajadores dentro del estado. En abril de 2024, el proyecto de ley sigue en comisión con un futuro incierto. Muchos economistas han dicho que los impuestos a los robots, si es que se utilizan, deberían fijarse en un nivel relativamente bajo. En Estados Unidos, tanto los empleadores como los empleados enfrentan impuestos sobre la nómina del 7,65% de los ingresos. Pero la tasa óptima para un impuesto a los robots sería entre el 1% y el 3,7%, según investigadores del Instituto de Tecnología de Massachusetts. «Es bueno para nosotros tener producción y productividad. Por eso no estoy seguro de que queramos gravarlos», dijo Brynjolfsson. «Los robots son parte de lo que impulsa el crecimiento tecnológico y nos brinda esa mayor productividad». «Habrá un momento en el futuro en el que los robots podrán hacer la mayor parte de lo que los humanos hacen actualmente», dijo Brynjolfsson. «Aún no hemos llegado a ese punto». Mire el vídeo de arriba para obtener más información sobre el plan del gobierno de EE. UU. para regular la inteligencia artificial.

Página 1 de 9

Funciona con WordPress & Tema de Anders Norén