Modelos de lenguaje más grandes. Modelos lingüísticos cada vez más grandes. ¿Será el nuevo año diferente? Pero hay una diferencia en las noticias sobre IA de este mes: hay un énfasis en herramientas que facilitan a los usuarios el uso de modelos. Ya sea simplemente modificando una URL para que pueda hacer preguntas sobre un artículo en arXiv o usando LLamafile para ejecutar un modelo en su computadora portátil (¡asegúrese de tener mucha memoria!) o usando Notebook Language Model para consultar sus propios documentos, AI se está volviendo ampliamente accesible, y no sólo un juguete con una interfaz web. Inteligencia artificial Agregar talk2 al inicio de cualquier URL de arXiv (por ejemplo, talk2arxiv.org) carga el documento en una aplicación de chat de IA para que puedas hablar con él. Esta es una aplicación muy inteligente del patrón RAG. La startup de vehículos autónomos de Google, Waymo, ha informado de un total de tres lesiones menores a humanos en más de 7 millones de millas de conducción. Claramente, esto no es Tesla, ni Uber, ni Cruise. DeepMind de Google ha utilizado un modelo de lenguaje de gran tamaño para resolver un problema matemático no resuelto anteriormente. Podría decirse que esta es la primera vez que un modelo de lenguaje crea información que antes no existía. El creador de llamafile ha ofrecido un conjunto de scripts bash de una línea para IA impulsada por computadoras portátiles. Microsoft ha lanzado un modelo de lenguaje pequeño llamado Phi-2. Phi-2 es un modelo de parámetros de 2,7 mil millones que ha sido entrenado ampliamente con «datos con calidad de libro de texto». Sin dar nombres, afirman que el rendimiento es superior al de Llama 2. Claude, el gran modelo de lenguaje de Anthropic, se puede usar en Google Sheets a través de una extensión del navegador. Notebook Language Model es una implementación de RAG diseñada para individuos. Es un cuaderno de Google (similar a Colab o Jupyter) que le permite cargar documentos y luego hacer preguntas sobre esos documentos. La Unión Europea está a punto de aprobar su Ley de IA, que será el intento más importante del mundo para regular la inteligencia artificial. Mistral ha lanzado Mixtral 8x7B, un modelo mixto de expertos en el que el modelo determina primero cuál de ocho conjuntos de 7 mil millones de parámetros generará la mejor respuesta a un mensaje. Los resultados se comparan bien con Llama 2. Mistral 7B y Mixtral se pueden ejecutar con Llamafile. Meta ha anunciado Purple Llama, un proyecto en torno a la confianza y la seguridad para modelos de lenguaje grandes. Han publicado un conjunto de puntos de referencia para evaluar la seguridad del modelo, junto con un clasificador para filtrar entradas (solicitudes) y salidas del modelo no seguras. El Switch Kit es un kit de desarrollo de software de código abierto que le permite reemplazar fácilmente OpenAI con un modelo de lenguaje de código abierto. Google ha anunciado que su modelo multimodal Gemini AI está disponible para los desarrolladores de software a través de AI Studio y Vertex AI. La mejora progresiva es una técnica para comenzar con una imagen de baja resolución y usar AI para aumentar la resolución. Reduce la potencia computacional necesaria para generar imágenes de alta resolución. Se ha implementado como un complemento de Stable Diffusion llamado DemoFusion. Internet permitió la vigilancia masiva, pero eso todavía te deja con exabytes de datos para analizar. Según Bruce Schneier, la capacidad de la IA para analizar y sacar conclusiones de esos datos permite el «espionaje masivo». Un grupo de más de 50 organizaciones, incluidas Meta, IBM y Hugging Face, han formado la AI Alliance para centrarse en el desarrollo de código abierto. Modelos. DeepMind ha creado un sistema de inteligencia artificial que demuestra el aprendizaje social: la capacidad de aprender a resolver un problema observando a un experto. ¿Son las redes neuronales la única forma de construir inteligencia artificial? Hivekit está creando herramientas para un motor de reglas espaciales distribuidas que puede proporcionar la capa de comunicaciones para colmenas, enjambres y colonias. La proliferación de herramientas de prueba de IA continúa con Gaia, un conjunto de pruebas de referencia destinado a determinar si los sistemas de IA son realmente inteligentes. El punto de referencia consiste en un conjunto de preguntas que son fáciles de responder para los humanos pero difíciles para las computadoras. Meta acaba de publicar un conjunto de modelos de lenguaje hablado multilingüe llamado Seamless. Los modelos son capaces de traducirse casi en tiempo real y afirman ser más fieles a la expresión humana natural. En un experimento que simulaba un mercado de valores, un sistema de inteligencia artificial para el comercio de acciones se dedicó a “tráfico de información privilegiada” después de haber sido presionado para mostrar mayores rendimientos. y recibir “consejos” de los “empleados” de la empresa. ¿Cuál es la mejor manera de ejecutar un modelo de lenguaje grande en su computadora portátil? Simon Willison recomienda llamafile, que empaqueta un modelo junto con los pesos como un ejecutable único (grande) que funciona en múltiples sistemas operativos. Un trabajo adicional en la extracción de datos de entrenamiento de ChatGPT, esta vez contra el modelo de producción, muestra que estos sistemas pueden ser opacos. , pero no son del todo “cajas negras”. Amazon Q es un nuevo modelo de lenguaje grande que incluye un chatbot y otras herramientas para ayudar a los trabajadores de oficina. Puede ser personalizado por empresas individuales que se suscriban al servicio para que tenga acceso a sus datos de propiedad. Programación Un nuevo superconjunto de lenguajes: Plutón es un superconjunto de Lua. La superconfiguración puede ser lo “nuevo” en el diseño de lenguajes: me vienen a la mente TypeScript, Mojo y algunos otros (incluidas las primeras versiones de C++). Virtualización dentro de contenedores orquestada por Kubernetes: ¿te imaginas un clúster de Kubernetes ejecutándose dentro de un contenedor Docker? ? ¿Es esto algo bueno o una prueba de cómo la complejidad de una pila puede crecer sin límites? Los ingenieros de Google proponen una alternativa a los microservicios: monolitos limitados que se implementan mediante un tiempo de ejecución automatizado que determina dónde y cuándo crear instancias de ellos. Como dijo Kelsey Hightower, la arquitectura de implementación se convierte en un detalle de implementación. El proyecto OpenBao pretende ser una bifurcación de código abierto de Vagrant de HashiCorp, análoga a la bifurcación OpenTofu de Terraform. Se especula que IBM respaldará ambos proyectos. La autorización Biscuit es un protocolo de autorización distribuido que es relativamente pequeño, flexible y está diseñado para su uso en sistemas distribuidos. Cualquier nodo puede validar un token de Biscuit utilizando únicamente información pública. gokrazy es un entorno de ejecución mínimo de Go para Raspberry Pi y (algunas) PC. Minimiza el mantenimiento al eliminar todo lo que no es necesario para compilar y ejecutar programas Go. Claramente no necesitas esto: un intérprete Brainfuck escrito en PostScript. (Si realmente necesita saberlo, Brainfuck es posiblemente el lenguaje de programación más incómodo del mundo, y PostScript es el lenguaje que su computadora envía a una impresora). Baserow es una herramienta de código abierto y sin código que combina una hoja de cálculo con una base de datos. Es similar a Airtable. Nuevo lenguaje de programación del mes: Onyx es un nuevo lenguaje de programación diseñado para generar WebAssembly (Wasm), utilizando Wasmer como tiempo de ejecución subyacente. Web Anil Dash predice que Internet está a punto de volverse extraño otra vez, como debería ser. El poder está pasando de los arraigados y fuertemente financiados “jardines amurallados” a las personas que sólo quieren ser creativas. Meta’s Threads ha comenzado a probar la integración con ActivityPub, lo que lo hará accesible a los servidores de Mastodon. El movimiento HTML Energy intenta recuperar la creatividad de los inicios de la web creando sitios desde cero con HTML y abandonando marcos web de alta potencia. El mejor tiempo de ejecución de WebAssembly podría no ser ningún tiempo de ejecución: basta con transpilarlo a C. Los investigadores de seguridad han descubierto una Ataque de intermediario contra SSH, uno de los fundamentos de la ciberseguridad. Una nueva versión de SSH (SSH3) promete ser más rápida y con más funciones. Está basado en HTTP/3 y escrito en Go. Los investigadores de seguridad han demostrado dos vulnerabilidades importantes en los GPT personalizados de OpenAI. Los actores maliciosos pueden extraer indicaciones del sistema y pueden obligarlo a filtrar archivos cargados y otros datos. Meta ha hecho que el cifrado de extremo a extremo (E2EE) sea el predeterminado para todos los usuarios de mensajería de Messenger y Facebook. Su implementación E2EE se basa en la de Signal. Han creado un nuevo servicio de almacenamiento y recuperación para mensajes cifrados. Se puede utilizar un chatbot impulsado por un modelo de lenguaje liberado para liberar otros chatbots. Los modelos de lenguaje son muy buenos para generar indicaciones que hagan que otros modelos salgan de sus límites, con tasas de éxito del 40% al 60%. La seguridad de la IA será un tema clave este año. Computación cuántica IBM ha desarrollado un procesador cuántico de 1121 qubits, junto con un sistema construido a partir de tres chips de procesador de 133 qubits que mejora enormemente la precisión de las puertas cuánticas. Las computadoras cuánticas para funcionar probablemente requerirán más de un millón de qubits, pero esto es un gran paso adelante. Un grupo de investigación ha anunciado que puede realizar cálculos en 48 qubits lógicos (es decir, con corrección de errores). Si bien existen una serie de limitaciones para su trabajo, es un paso importante hacia la computación cuántica práctica. Dos publicaciones sobre criptografía poscuántica explican de qué se trata. Cerebros Los investigadores han desarrollado un sistema no invasivo que puede convertir el pensamiento humano en texto. Los usuarios usan una gorra con sensores que genera datos de EEG. La precisión aún no es muy alta, pero ya es superior a otras tecnologías de pensamiento a voz. Redes neuronales artificiales con cerebros: Los investigadores conectaron células cerebrales humanas cultivadas (organoides) a una interfaz que les permitió proporcionar datos de audio a los organoides. Descubrieron que podía reconocer los sonidos de las vocales. Realidad virtual y aumentada Aprende más rápido. Excavar más hondo. Ver más lejos.

Source link