Todo lo que necesitas saber sobre tecnología

Etiqueta: modelo de lenguaje grande

Es hora de que la región APAC construya sus propios modelos básicos de IA, dice CSIRO

Una investigación realizada en 2023 por la iniciativa Grandes modelos europeos de IA encontró que el 73% de los modelos básicos de IA desde 2017 eran de EE. UU. y el 15% de China. Advirtió que a Alemania le faltaba un “cambio de paradigma” de IA que podría “poner en peligro la soberanía digital de Europa”. El dominio del modelo de base de IA de EE. UU. y China está generando preocupaciones similares en los países de APAC. Existen algunos temores de que esto pueda afectar a los ciudadanos y empresas de la región en áreas que incluyen la seguridad y la gobernanza de los datos, así como el riesgo geopolítico o de la cadena de suministro. Estados-nación como Singapur, Japón y Australia están respondiendo desarrollando o considerando modelos de bases soberanas de IA. Por ejemplo, el organismo científico nacional de Australia, la Organización de Investigación Científica e Industrial de la Commonwealth, publicó recientemente un documento preguntando si Australia debería invertir en sus propios modelos de fundaciones. Las empresas podrían beneficiarse de modelos que sean más sensibles a los matices de su cultura o idioma y prometan mantener los datos seguros y conformes dentro de las fronteras de su propio país. La creación de modelos soberanos de IA también podría ayudar a desarrollar ecosistemas locales de computación y habilidades de IA. Descargue estos 10 casos de uso principales de inteligencia artificial de TechRepublic Premium El dominio de la IA de EE. UU. y China estimula el interés en la IA soberana El dominio de los EE. UU. en IA continuó durante 2023. El informe del índice de IA de Stanford publicado en 2024 encontró que se habían lanzado 61 modelos notables en los EE. UU. en 2023; esto estuvo por delante de los 15 nuevos modelos de China y de Francia, el mayor contribuyente de Europa con ocho modelos (Figura A). La Unión Europea en su conjunto produjo 21 modelos notables, mientras que Singapur, con tres modelos, fue el único otro productor de modelos lingüísticos grandes notables en APAC. Figura A Estados Unidos está superando a China y otros países en el desarrollo de modelos de IA. Imagen: Epoch EE. UU. y China están creando muchos de los LLM más populares de la actualidad. Muchos LLM utilizados ampliamente en APAC se originan en los EE. UU., incluidos ChatGPT 3.5 y GPT-4 de OpenAI, Llama de Meta, Google Gemini, Claude de Anthropic y Copilot de Microsoft, así como open- Modelos fuente como BERT. VER: Cómo ve el gobierno australiano que la IA acelera la productividad China es el mayor desafío para los EE. UU., y algunas empresas utilizan Llama 1 de código abierto para capacitar a nuevos LLM. Los modelos notables de China incluyen Ernie Bot estilo ChatGPT de Baidu, que ahora tiene 200 millones de usuarios, y un LLM desarrollado por Alibaba adaptado a los idiomas del sudeste asiático llamado SeaLLM. Los líderes de la industria centran el debate en las capacidades soberanas de la IA. Las partes interesadas clave de la industria están abogando por una IA más soberana. El director ejecutivo de NVIDIA, Jensen Huang, dijo durante una reciente Cumbre Mundial de Gobiernos que cada país necesitaba «ser dueño de la producción de su propia inteligencia», recomendando que «codifiquen su idioma, datos y cultura» en su propio LLM. Como informó Business Standard, el director ejecutivo de IBM, Arvind Krishna, dijo: «Todos los países deberían tener capacidad soberana en materia de inteligencia artificial, incluidos grandes modelos de lenguaje e IA generativa», para «utilizarla para fines en los que el resto del mundo no quiere invertir». en, o que tal vez no quiera exponer a otros «. Más cobertura de IA de lectura obligada La concentración del mercado de Foundation LLM tiene riesgos para las empresas Muchas empresas en APAC están personalizando los modelos de IA existentes y implementando medidas para proteger la propiedad intelectual de ser absorbida por modelos de capacitación en el extranjero. Sin embargo, la falta de modelos soberanos de IA y el dominio de algunos Estados-nación exponen a las empresas a riesgos. En el documento de CSIRO publicado en marzo de 2024, se señalaron factores clave que Australia debería sopesar al considerar si construir su propio modelo soberano de IA; Estos factores también se aplican a otros países de la región APAC. Mercados y precios competitivos: las empresas pueden terminar dependiendo de un pequeño número de proveedores de modelos de IA dominantes en mercados extraterritoriales, con el poder de fijar precios para cosas como el acceso a API. En abril de 2024, la Autoridad de Mercados y Competencia del Reino Unido señaló “preocupaciones reales” sobre una red interconectada ya existente de 90 asociaciones e inversiones estratégicas que involucran a las mismas empresas, a saber, Google, Apple, Microsoft, Meta, Amazon y NVIDIA. Fiabilidad y estabilidad: la dependencia de LLM de propiedad privada expone a las empresas a cambios inesperados. Dos ejemplos son el despido y reinstalación del director ejecutivo Sam Altman por parte de OpenAI o la adquisición de Twitter por parte de Elon Musk, que provocó que muchos usuarios institucionales cambiaran sus estrategias digitales. Relevancia y sensibilidad cultural: los países asiáticos están viendo la importancia de tener LLM construidos a partir de conjuntos de datos locales. Esto garantizaría que los resultados integren normas culturales y matices lingüísticos o brinden asesoramiento correcto sobre las leyes, requisitos y procesos locales. Confidencialidad, privacidad y seguridad de la información: todavía existen preocupaciones sobre la introducción de datos privados o sensibles en modelos de IA en el extranjero; esto está impidiendo que las instituciones del sector público adopten plenamente los LLM. Sin una protección adecuada de los datos, la propiedad intelectual de una organización podría estar en riesgo. Riesgos geopolíticos: siempre existe el riesgo de que un evento geopolítico importante pueda poner en riesgo a las organizaciones o agencias si dependen de modelos de IA extraterritoriales. El CSIRO añadió que es posible que se utilicen para influir en la opinión pública de otras naciones soberanas. Ética y moderación de contenidos: la ética puede ser importante para las organizaciones privadas que utilizan diferentes modelos. Por ejemplo, OpenAI es objeto de varias demandas por los datos de capacitación utilizados para construir sus modelos, lo que deja a las organizaciones potencialmente en riesgo si los usan. El riesgo soberano debe equilibrarse con las oportunidades para las empresas El CSIRO dijo que si bien la IA generativa representa importantes oportunidades para las empresas, “la dependencia de modelos básicos de IA fabricados y operados en el extranjero (o corporaciones tecnológicas privadas) también crea riesgos de capacidad soberana y preocupaciones sobre la equidad y mercados abiertos para el desarrollo de productos”, algo que los países y las empresas tratarían de evitar. Países de Asia y el Pacífico que trabajan en sus propios LLM personalizados. Los países de APAC están considerando la falta de capacidades soberanas de IA. Singapur, Japón y Australia ya están invitando a debatir o implementar políticas para comenzar el proceso de reequilibrio de la hegemonía de la IA que existe en el mercado mundial de modelos de bases. Singapur Singapur inició un programa de 51 millones de dólares (80 millones de dólares australianos), denominado Programa Nacional Multimodal LLM (NMLP), para desarrollar un modelo base con contexto regional que pueda comprender las características lingüísticas únicas y el entorno multilingüe. La Autoridad de Desarrollo de Medios de Infocomm dijo que se basaría en los primeros resultados del modelo SEA-LION (Lenguajes del Sudeste Asiático en una Red) de AI Singapur, un LLM de código abierto de menor escala que es más representativo del contexto cultural y los idiomas de la región. Cuando se entregó, la IMDA dijo que sería el LLM regional inaugural del sudeste asiático. Se espera que los modelos y casos de uso estén disponibles a partir del proyecto en los próximos dos años. Japón El Partido Liberal Democrático Japonés recomendó a principios de 2023 que la nación “construya y fortalezca capacidades de desarrollo de modelos de IA, incluidos los modelos básicos”, destacando el deseo de habilidades y experiencia, conjuntos de datos y recursos computacionales para un ecosistema de IA. El gobierno señaló una preocupación particular con los recursos informáticos. En septiembre de 2023, se reveló que Japón se está asociando con empresas como NEC, Fujitsu y SoftBank para desarrollar sus propios LLM como ChatGPT, que se adaptarían a las complejidades del idioma y la cultura japonesa. Australia El documento de CSIRO analizó una serie de medidas de mitigación que podrían respaldar una posición australiana fortalecida en el orden global de la IA. Estos incluyeron la construcción de la infraestructura informática necesaria asegurando chips aceleradores de IA de alto rendimiento, o GPU, en medio de una alta demanda global. El CSIRO también planteó la posibilidad de identificar, validar y poner a disposición conjuntos de datos para entrenar modelos básicos de IA y aumentar las habilidades de IA de la fuerza laboral a través de la capacitación, la educación y un mejor acceso a los grupos de talentos. VER: Cómo el CSIRO está impulsando la inversión en IA en Australia a través de la competencia Además, el CSIRO preguntó si Australia podría negociar colaboraciones internacionales bilaterales o multilaterales para compartir experiencia y recursos en IA o invertir en la construcción, el ajuste y la aplicación de modelos soberanos de bases de IA para mejorar. funciones gubernamentales, entre otras medidas.

¡Baidu niega el vínculo del bot ERNIE con la investigación militar china!

¡Baidu acaba de negar cualquier vínculo entre su servicio de IA generativa ERNIE Bot y una IA militar china! SCMP: ¡Bot Baidu ERNIE vinculado al ejército chino! El 12 de enero de 2024, el South China Morning Post (SCMP) informó que un laboratorio de investigación dependiente de la división de guerra cibernética de la Fuerza de Apoyo Estratégico del Ejército Popular de Liberación “forjó un vínculo físico” entre su sistema de inteligencia artificial y grandes modelos lingüísticos en China, específicamente el Baidu ERNIE Bot y iFLYTEK Spark. Según SCMP, el proyecto se detalló en un artículo revisado por pares publicado en la edición de diciembre de 2023 de la revista académica china Command Control & Simulation. También informó que es la primera vez que el ejército chino confirma públicamente su uso de modelos comerciales de lenguaje grande. Según los científicos involucrados en el proyecto, un laboratorio de investigación de la Fuerza de Apoyo Estratégico del Ejército Popular de Liberación (EPL), que supervisa el espacio, la cibernética, la inteligencia y la guerra electrónica del ejército chino, ha forjado un vínculo físico entre su sistema de inteligencia artificial y Ernie y Baidu. Spark de iFlyTek, que son modelos de lenguaje grandes similares a ChatGPT. La IA militar puede convertir grandes cantidades de datos de sensores e información proporcionada por las unidades de primera línea en lenguaje descriptivo o imágenes y transmitirlos a los modelos comerciales. Después de que confirman que entienden, la IA militar genera automáticamente indicaciones para un intercambio más profundo en diversas tareas, como simulaciones de combate. Todo el proceso está completamente libre de participación humana. El artículo de Sun Yifeng y su equipo de la Universidad de Ingeniería de la Información del EPL analiza cómo alimentaron datos de IA militar sobre la intervención militar estadounidense en Libia en 2011 a grandes modelos de lenguaje como el Baidu ERNIE Bot, y después de varias rondas de diálogo, pudieron para predecir la estrategia de combate del ejército estadounidense. En el artículo, el equipo de Sun analizó uno de sus experimentos que simulaba una invasión militar estadounidense de Libia en 2011. La IA militar proporcionó información sobre las armas y el despliegue de ambos ejércitos a los modelos de lenguaje grandes. Después de varias rondas de diálogo, los modelos predijeron con éxito el próximo movimiento del ejército estadounidense. Después de la publicación de esa historia, las acciones de Baidu cayeron más de un 11,5%, en medio de temores de que un vínculo tan directo con el ejército chino resultaría en sanciones de Estados Unidos, no muy diferente de lo que le sucedió a HUAWEI. Recomendado: ¿Estaban realmente los misiles chinos llenos de agua? ¡Baidu niega el vínculo del bot ERNIE con la investigación militar china! Inicialmente, Baidu solo declaró que no tenía conocimiento del proyecto de investigación: No tenemos conocimiento del proyecto de investigación, y si se hubiera utilizado nuestro modelo de lenguaje grande, habría sido la versión que está disponible públicamente en línea. Sin embargo, después del precio de sus acciones cayó, Baidu emitió un desmentido más contundente el 15 de enero de 2024. Baidu declaró que no tenía ninguna “colaboración comercial” con el equipo de Sun Yifeng ni con la Universidad de Ingeniería de la Información del EPL, y afirmó que si se utilizaba ERNIE Bot en esa investigación, ha sido la versión disponible públicamente. ERNIE Bot está disponible y utilizado por el público en general. El artículo académico, publicado por académicos de una universidad china, describe cómo los autores crearon indicaciones y recibieron respuestas de los LLM, utilizando las funciones disponibles para cualquier usuario que interactúe con herramientas de IA generativa. Baidu no ha participado en ninguna colaboración comercial ni ha proporcionado ningún servicio personalizado a los autores del artículo académico ni a ninguna institución a la que estén afiliados. Baidu también afirmó que desde entonces SCMP ha «aclarado y corregido» su informe. El South China Morning Post, el primer medio de comunicación que informó sobre este artículo académico, aclaró y corrigió su informe original. SCMP eliminó su referencia a un vínculo físico entre Ernie Bot y cualquier sistema de IA militar chino, modificándola para decir que el laboratorio del EPL probó su sistema de IA en Baidu Ernie e iFLYTEK Spark. ¡Por favor apoye mi trabajo! ¡Apoya mi trabajo a través de una transferencia bancaria/PayPal/tarjeta de crédito! Nombre: Adrian WongTransferencia bancaria: CIMB 7064555917 (Código Swift: CIBBMYKL)Tarjeta de crédito/Paypal: https://paypal.me/techarp El Dr. Adrian Wong ha estado escribiendo sobre tecnología y ciencia desde 1997, e incluso ha publicado un libro con Prentice Hall llamado Rompiendo la barrera del BIOS (ISBN 978-0131455368) mientras estaba en la escuela de medicina. Continúa dedicando innumerables horas todos los días a escribir sobre tecnología, medicina y ciencia, en su búsqueda de hechos en un mundo de posverdad.
[/su_note]

Lectura recomendada Volver a > Negocios | Computadora | Soporte técnico ARP ¡ARP técnico! Apóyenos visitando a nuestros patrocinadores, participando en los foros Tech ARP o haciendo una donación a nuestro fondo. ¡Gracias! Así: Me gusta Cargando…

Source link

Funciona con WordPress & Tema de Anders Norén