Todo lo que necesitas saber sobre tecnología

Etiqueta: gpto

Ocho tendencias empresariales de IA en 2024, según investigadores de Stanford

La IA hace que los trabajadores sean más productivos, pero todavía nos faltan regulaciones, según una nueva investigación. El Informe del Índice de IA 2024, publicado por el instituto de Inteligencia Artificial Centrada en las Personas de la Universidad de Stanford, ha descubierto las ocho principales tendencias de IA para las empresas, incluido cómo la tecnología aún no supera al cerebro humano en todas las tareas. TechRepublic profundiza en las implicaciones comerciales de estas conclusiones, con la información de los coautores del informe Robi Rahman y Anka Reuel. VER: Las 5 principales tendencias de IA a tener en cuenta en 2024 1. Los humanos aún superan a la IA en muchas tareas Según la investigación, la IA todavía no es tan buena como los humanos en las tareas complejas de resolución de problemas matemáticos de nivel avanzado, razonamiento visual de sentido común y planificación ( Figura A). Para llegar a esta conclusión, se compararon los modelos con puntos de referencia humanos en muchas funciones empresariales diferentes, incluida la codificación, el comportamiento basado en agentes, el razonamiento y el aprendizaje por refuerzo. Figura A Rendimiento de los modelos de IA en diferentes tareas en relación con los humanos. Imagen: Informe del índice de IA 2024/HAI de la Universidad de Stanford. Si bien la IA superó las capacidades humanas en clasificación de imágenes, razonamiento visual y comprensión del inglés, el resultado muestra que existe potencial para que las empresas utilicen la IA para tareas en las que el personal humano realmente se desempeñaría mejor. Muchas empresas ya están preocupadas por las consecuencias de una dependencia excesiva de los productos de IA. 2. Los modelos de IA de última generación se están volviendo más caros El Índice de IA informa que entrenar GPT-4 de OpenAI y Gemini Ultra de Google costará aproximadamente 78 millones de dólares y 191 millones de dólares en 2023, respectivamente (Figura B). El científico de datos Rahman dijo a TechRepublic en un correo electrónico: «Con las tasas de crecimiento actuales, los modelos de IA de vanguardia costarán entre 5.000 y 10.000 millones de dólares en 2026, momento en el que muy pocas empresas podrán permitirse estos ciclos de formación». Figura B Costos de capacitación de los modelos de IA, 2017 a 2023. Imagen: AI Index Report 2024/Stanford University HAI/Epoch, 2023 En octubre de 2023, el Wall Street Journal publicó que Google, Microsoft y otros grandes actores tecnológicos estaban luchando por monetizar su capacidad generativa. Productos de IA debido a los enormes costos asociados con su funcionamiento. Existe el riesgo de que, si las mejores tecnologías se vuelven tan caras que sólo son accesibles para las grandes corporaciones, su ventaja sobre las PYMES podría aumentar desproporcionadamente. Esto fue señalado por el Foro Económico Mundial en 2018. Sin embargo, Rahman destacó que muchos de los mejores modelos de IA son de código abierto y, por lo tanto, están disponibles para empresas de todos los presupuestos, por lo que la tecnología no debería ampliar ninguna brecha. Le dijo a TechRepublic: “Los modelos de IA de código abierto y cerrado están creciendo al mismo ritmo. Una de las empresas de tecnología más grandes, Meta, está utilizando código abierto para todos sus modelos, por lo que las personas que no pueden darse el lujo de entrenar ellos mismos los modelos más grandes pueden simplemente descargar los suyos”. 3. La IA aumenta la productividad y la calidad del trabajo Al evaluar una serie de estudios existentes, los investigadores de Stanford concluyeron que la IA permite a los trabajadores completar tareas más rápidamente y mejora la calidad de su producción. Las profesiones en las que esto se observó incluyen programadores informáticos, donde el 32,8% informó un aumento de productividad, consultores, agentes de soporte (Figura C) y reclutadores. Figura C Impacto de la IA en la productividad de los agentes de atención al cliente. Imagen: AI Index Report 2024/Stanford University HAI/Brynjolfsson et al., 2023 En el caso de los consultores, el uso de GPT-4 cerró la brecha entre los profesionales poco calificados y los altamente calificados, y el grupo poco calificado experimentó más de un aumento del rendimiento (Figura D). Otras investigaciones también han indicado cómo la IA generativa en particular podría actuar como un igualador, ya que los trabajadores menos experimentados y menos calificados obtienen más provecho de ella. Figura D Mejora del desempeño laboral de consultores poco y altamente calificados cuando se utiliza IA. Imagen: Informe del índice de IA 2024/HAI de la Universidad de Stanford Sin embargo, otros estudios sugirieron que “el uso de IA sin la supervisión adecuada puede conducir a una disminución del rendimiento”, escribieron los investigadores. Por ejemplo, existen informes generalizados de que las alucinaciones prevalecen en modelos de lenguaje grandes que realizan tareas legales. Otras investigaciones han descubierto que es posible que no alcancemos todo el potencial de las ganancias de productividad impulsadas por la IA hasta dentro de una década, ya que los resultados insatisfactorios, las directrices complicadas y la falta de competencia siguen frenando a los trabajadores. 4. Las regulaciones de IA en los EE. UU. van en aumento El Informe del Índice de IA encontró que, en 2023, había 25 regulaciones relacionadas con la IA activas en los EE. UU., mientras que en 2016 solo había una (Figura E). Sin embargo, esta no ha sido una tendencia constante, ya que el número total de regulaciones relacionadas con la IA creció un 56,3% solo entre 2022 y 2023. Con el tiempo, estas regulaciones también han pasado de ser expansivas con respecto al progreso de la IA a restrictivas, y el tema más frecuente que abordan es el comercio exterior y las finanzas internacionales. Figura E Número de regulaciones relacionadas con la IA activas en los EE. UU. entre 2016 y 2023. Imagen: Informe del índice AI 2024/Universidad de Stanford HAI La legislación relacionada con la IA también está aumentando en la UE, con 46, 22 y 32 nuevas regulaciones aprobadas en 2021. , 2022 y 2023, respectivamente. En esta región, las regulaciones tienden a adoptar un enfoque más amplio y, en la mayoría de los casos, cubren la ciencia, la tecnología y las comunicaciones. VER: NIST establece un consorcio de seguridad de IA Es esencial que las empresas interesadas en la IA se mantengan actualizadas sobre las regulaciones que las afectan, o corren el riesgo de sufrir fuertes sanciones por incumplimiento y daños a su reputación. Una investigación publicada en marzo de 2024 encontró que solo el 2% de las grandes empresas del Reino Unido y la UE conocían la próxima Ley de IA de la UE. Más cobertura de IA de lectura obligada 5. La inversión en IA generativa está aumentando La financiación para productos de IA generativa que generan contenido en respuesta a un mensaje casi se octuplicó de 2022 a 2023, alcanzando los 25.200 millones de dólares (Figura F). OpenAI, Anthropic, Hugging Face e Inflection, entre otros, recibieron importantes rondas de recaudación de fondos. Figura F Inversión privada global total en IA generativa de 2019 a 2023. Imagen: AI Index Report 2024/Stanford University HAI/Quid, 2023 Es probable que el desarrollo de capacidades de IA generativa satisfaga la demanda de las empresas que buscan adoptarlas en sus procesos. En 2023, la IA generativa se citó en el 19,7 % de todas las llamadas sobre resultados de las empresas Fortune 500, y un informe de McKinsey reveló que el 55 % de las organizaciones utilizan ahora la IA, incluida la IA generativa, en al menos una unidad de negocio o función. El conocimiento de la IA generativa aumentó después del lanzamiento de ChatGPT el 30 de noviembre de 2022 y, desde entonces, las organizaciones han estado compitiendo para incorporar sus capacidades en sus productos o servicios. Una encuesta reciente de 300 empresas globales realizada por MIT Technology Review Insights, en asociación con Telstra International, encontró que los encuestados esperan que su número de funciones que implementan IA generativa se duplique en 2024. VER: Definición de IA generativa: cómo funciona, beneficios y Peligros Sin embargo, hay algunas pruebas de que el auge de la IA generativa “podría llegar a un final bastante rápido”, según Gary Marcus, destacado portavoz de la IA, y las empresas deberían tener cuidado. Esto se debe principalmente a las limitaciones de las tecnologías actuales, como la posibilidad de sesgos, problemas de derechos de autor e imprecisiones. Según el informe de Stanford, la cantidad finita de datos en línea disponibles para entrenar modelos podría exacerbar los problemas existentes, poniendo un límite a las mejoras y la escalabilidad. Afirma que las empresas de IA podrían quedarse sin datos lingüísticos de alta calidad para 2026, datos lingüísticos de baja calidad en dos décadas y datos de imágenes entre finales de la década de 2030 y mediados de la década de 2040. 6. Los puntos de referencia para la responsabilidad de LLM varían ampliamente Existe una variación significativa en los puntos de referencia con los que las empresas de tecnología evalúan sus LLM en lo que respecta a confiabilidad o responsabilidad, según el informe (Figura G). Los investigadores escribieron que esto «complica los esfuerzos para comparar sistemáticamente los riesgos y limitaciones de los mejores modelos de IA». Estos riesgos incluyen resultados sesgados y la filtración de información privada de conjuntos de datos de entrenamiento e historiales de conversaciones. Figura G Los puntos de referencia de IA responsable utilizados en el desarrollo de modelos de IA populares. Imagen: Informe del índice AI 2024/Universidad de Stanford HAI Reuel, estudiante de doctorado en el Laboratorio de Sistemas Inteligentes de Stanford, dijo a TechRepublic en un correo electrónico: “Actualmente no existen requisitos de informes, ni tenemos evaluaciones sólidas que nos permitan decir con confianza que un modelo es seguro si pasa esas evaluaciones en primer lugar”. Sin una estandarización en esta área, aumenta el riesgo de que algunos modelos de IA no confiables pasen desapercibidos y sean integrados por las empresas. «Los desarrolladores podrían informar selectivamente puntos de referencia que resalten positivamente el rendimiento de su modelo», añade el informe. Reuel dijo a TechRepublic: “Hay múltiples razones por las que un modelo dañino puede pasar desapercibido. En primer lugar, no hay evaluaciones estandarizadas o requeridas que dificulten la comparación de modelos y sus riesgos (relativos), y en segundo lugar, no hay evaluaciones sólidas, específicamente de los modelos básicos, que permitan una comprensión sólida y completa del riesgo absoluto de un modelo”. 7. Los empleados están nerviosos y preocupados por la IA. El informe también rastrea cómo las actitudes hacia la IA están cambiando a medida que aumenta la conciencia. Una encuesta encontró que el 52% expresa nerviosismo hacia los productos y servicios de IA, y que esta cifra había aumentado un 13% en 18 meses. También encontró que solo el 54% de los adultos está de acuerdo en que los productos y servicios que utilizan IA tienen más beneficios que inconvenientes, mientras que el 36% teme que pueda quitarles el trabajo en los próximos cinco años (Figura H). Figura H Opiniones globales sobre el impacto que la IA tendrá en los empleos actuales en 2023. Imagen: AI Index Report 2024/Stanford University HAI/Ipsos, 2023 Otras encuestas a las que se hace referencia en el AI Index Report encontraron que el 53 % de los estadounidenses actualmente se sienten más preocupados por la IA. que emocionados, y que la preocupación más común que comparten es su impacto en el empleo. Estas preocupaciones podrían tener un impacto particular en la salud mental de los empleados cuando las tecnologías de inteligencia artificial comiencen a integrarse en una organización, algo que los líderes empresariales deberían monitorear. VER: Los 10 mejores cursos de IA en 2024 8. EE. UU. y China están creando la mayoría de los LLM más populares de la actualidad. Ben Abbott de TechRepublic cubrió esta tendencia del informe de Stanford en su artículo sobre la construcción de modelos básicos de IA en la región APAC. Escribió, en parte: “El dominio de EE. UU. en IA continuó a lo largo de 2023. El informe del índice de IA de Stanford publicado en 2024 encontró que se habían lanzado 61 modelos notables en EE. UU. en 2023; esto estuvo por delante de los 15 nuevos modelos de China y de Francia, el mayor contribuyente de Europa con ocho modelos (Figura I). El Reino Unido y la Unión Europea como región produjeron 25 modelos notables, superando a China por primera vez desde 2019, mientras que Singapur, con tres modelos, fue el único otro productor de modelos lingüísticos grandes notables en APAC”. Figura I Estados Unidos está superando a China y otros países en el desarrollo de modelos de IA. Imagen: Época

Sora de OpenAI genera vídeos fotorrealistas

OpenAI lanzó el 15 de febrero un nuevo e impresionante modelo de conversión de texto a video llamado Sora que puede crear imágenes en movimiento fotorrealistas o de dibujos animados a partir de indicaciones de texto en lenguaje natural. Sora aún no está disponible para el público; en cambio, OpenAI entregó a Sora a los equipos rojos (investigadores de seguridad que imitan las técnicas utilizadas por los actores de amenazas) para evaluar posibles daños o riesgos. OpenAI también ofreció Sora a diseñadores y artistas visuales y de audio seleccionados para obtener comentarios sobre cómo optimizar mejor Sora para el trabajo creativo. El énfasis de OpenAI en la seguridad en torno a Sora es estándar para la IA generativa hoy en día, pero también muestra la importancia de tomar precauciones cuando se trata de IA que podría usarse para crear imágenes falsas convincentes, que podrían, por ejemplo, dañar la reputación de una organización. ¿Qué es Sora? Sora es un modelo de difusión de IA generativa. Sora puede generar múltiples personajes, fondos complejos y movimientos de apariencia realista en videos de hasta un minuto de duración. Puede crear múltiples tomas dentro de un video, manteniendo consistentes los personajes y el estilo visual, lo que permite a Sora ser una herramienta narrativa eficaz. En el futuro, Sora podría usarse para generar videos que acompañen el contenido, para promocionar contenido o productos en las redes sociales, o para ilustrar puntos en presentaciones para empresas. Si bien no debería reemplazar las mentes creativas de los creadores de videos profesionales, Sora podría usarse para crear contenido de manera más rápida y sencilla. Si bien aún no hay información sobre los precios, es posible que OpenAI eventualmente tenga una opción para incorporar Sora en su suscripción ChatGPT Enterprise. Más cobertura de IA de lectura obligada «Los medios y el entretenimiento serán la industria vertical que puede ser la primera en adoptar modelos como estos», dijo a TechRepublic el analista y vicepresidente distinguido de Gartner, Arun Chandrasekaran Chandrasekaran, en un correo electrónico. «Las funciones comerciales como el marketing y el diseño dentro de las empresas y empresas de tecnología también podrían ser las primeras en adoptar». ¿Cómo accedo a Sora? A menos que ya haya recibido acceso de OpenAI como parte de su equipo rojo o prueba beta de trabajo creativo, no es posible acceder a Sora ahora. OpenAI lanzó Sora a artistas visuales, diseñadores y cineastas seleccionados para aprender cómo optimizar Sora para usos creativos específicamente. Además, OpenAI ha dado acceso a investigadores del equipo rojo especializados en desinformación, contenido de odio y prejuicios. El analista y vicepresidente distinguido de Gartner, Arun Chandrasekaran, dijo que el lanzamiento inicial de Sora por parte de OpenAI es «un buen enfoque y consistente con las prácticas de OpenAI sobre el lanzamiento seguro de modelos». «Por supuesto, esto por sí solo no será suficiente, y deben implementar prácticas para eliminar a los malos actores que obtienen acceso a estos modelos o sus usos nefastos», dijo Chandrasekaran. ¿Cómo funciona Sora? Sora es un modelo de difusión, lo que significa que refina gradualmente una imagen sin sentido hasta convertirla en una comprensible basándose en el mensaje y utiliza una arquitectura transformadora. La investigación que realizó OpenAI para crear sus modelos DALL-E y GPT, en particular la técnica de recaptura de DALL-E, fueron peldaños hacia la creación de Sora. VER: Hay demanda de ingenieros de inteligencia artificial en el Reino Unido (TechRepublic) Los videos de Sora no siempre parecen completamente realistas. Sora todavía tiene problemas para diferenciar la izquierda de la derecha o seguir descripciones complejas de eventos que suceden con el tiempo, como indicaciones sobre un movimiento específico de la cámara. . Los videos creados con Sora probablemente se detecten a través de errores de causa y efecto, dijo OpenAI, como cuando una persona muerde una galleta pero no deja una marca. Por ejemplo, las interacciones entre personajes pueden mostrar confusión (especialmente alrededor de las extremidades) o incertidumbre en términos de números (por ejemplo, ¿cuántos lobos hay en el video a continuación en un momento dado?). ¿Cuáles son las precauciones de seguridad de OpenAI en torno a Sora? Con las indicaciones y ajustes correctos, los videos que hace Sora pueden confundirse fácilmente con videos de acción en vivo. OpenAI es consciente de posibles problemas de difamación o desinformación derivados de esta tecnología. OpenAI planea aplicar los mismos filtros de contenido a Sora que la compañía aplica a DALL-E 3 que previenen “violencia extrema, contenido sexual, imágenes de odio, parecidos a celebridades o la propiedad intelectual de otros”, según OpenAI. Si Sora se lanza al público, OpenAI planea marcar el contenido creado con Sora con metadatos C2PA; Los metadatos se pueden ver seleccionando la imagen y eligiendo las opciones del menú Información del archivo o Propiedades. Las personas que crean imágenes generadas por IA aún pueden eliminar los metadatos a propósito o hacerlo accidentalmente. OpenAI actualmente no tiene nada implementado para evitar que los usuarios de su generador de imágenes, DALL-E 3, eliminen metadatos. «Ya es [difficult] y será cada vez más imposible detectar contenido generado por IA por parte de seres humanos”, dijo Chandrasekaran. “Los capitalistas de riesgo están invirtiendo en nuevas empresas que crean herramientas de detección de deepfake, y ellas (las herramientas de detección de deepfake) pueden ser parte de la armadura de una empresa. Sin embargo, en el futuro, será necesario que las asociaciones público-privadas identifiquen, a menudo en el momento de la creación, contenidos generados por máquinas”. ¿Cuáles son los competidores de Sora? Los vídeos fotorrealistas de Sora son bastante distintos, pero existen servicios similares. Runway proporciona generación de IA de texto a vídeo lista para uso empresarial. Fliki puede crear videos limitados con sincronización de voz para narraciones en redes sociales. La IA generativa ahora también puede agregar contenido o editar videos tomados de manera convencional de manera confiable. El 8 de febrero, investigadores de Apple revelaron un artículo sobre Keyframer, su modelo de lenguaje grande propuesto que puede crear imágenes animadas y estilizadas. TechRepublic se ha comunicado con OpenAI para obtener más información sobre Sora.

Source link

Funciona con WordPress & Tema de Anders Norén