Todo lo que necesitas saber sobre tecnología

Etiqueta: Redes neuronales

Las redes neuronales de Kalmogorov-Arnold revolucionan la forma de hacer inteligencia artificial

Las redes neuronales de Kalmogorov-Arnold revolucionan la forma de hacer inteligencia artificial


Las redes neuronales artificiales (algoritmos inspirados en cerebros biológicos) son el núcleo de la inteligencia artificial moderna, detrás de los chatbots y los generadores de imágenes. Pero con sus muchas neuronas, pueden ser cajas negras, cuyo funcionamiento interno es ininterpretable para los usuarios. Los investigadores han creado ahora una forma fundamentalmente nueva de hacer redes neuronales que en algunos aspectos supera a los sistemas tradicionales. Estas nuevas redes son más interpretables y también más precisas, dicen los defensores, incluso cuando son más pequeñas. Sus desarrolladores dicen que la forma en que aprenden a representar datos físicos de forma concisa podría ayudar a los científicos a descubrir nuevas leyes de la naturaleza. «Es genial ver que hay una nueva arquitectura sobre la mesa». —Brice Ménard, Universidad Johns Hopkins Durante la última década o más, los ingenieros han ajustado principalmente los diseños de redes neuronales a través de prueba y error, dice Brice Ménard, un físico de la Universidad Johns Hopkins que estudia cómo funcionan las redes neuronales pero que no participó en el nuevo trabajo, que se publicó en arXiv en abril. “Es fantástico ver que hay una nueva arquitectura sobre la mesa”, afirma, especialmente una diseñada a partir de principios básicos. Una forma de pensar en las redes neuronales es por analogía con las neuronas, o nodos, y las sinapsis, o conexiones entre esos nodos. En las redes neuronales tradicionales, llamadas perceptrones multicapa (MLP), cada sinapsis aprende un peso, un número que determina qué tan fuerte es la conexión entre esas dos neuronas. Las neuronas están dispuestas en capas, de modo que una neurona de una capa toma señales de entrada de las neuronas de la capa anterior, ponderadas por la fuerza de su conexión sináptica. Luego, cada neurona aplica una función simple a la suma total de sus entradas, llamada función de activación. En las redes neuronales tradicionales, a veces llamadas perceptrones multicapa [left]Cada sinapsis aprende un número llamado peso, y cada neurona aplica una función simple a la suma de sus entradas. En la nueva arquitectura de Kolmogorov-Arnold [right]En la nueva arquitectura, las sinapsis desempeñan un papel más complejo. En lugar de aprender simplemente lo fuerte que es la conexión entre dos neuronas, aprenden la naturaleza completa de esa conexión: la función que asigna la entrada a la salida. A diferencia de la función de activación utilizada por las neuronas en la arquitectura tradicional, esta función podría ser más compleja (de hecho, una «spline» o combinación de varias funciones) y es diferente en cada caso. Las neuronas, por otro lado, se vuelven más simples: simplemente suman las salidas de todas sus sinapsis anteriores. Las nuevas redes se denominan redes de Kolmogorov-Arnold (KAN), en honor a dos matemáticos que estudiaron cómo se podían combinar las funciones. La idea es que las KAN proporcionarían una mayor flexibilidad al aprender a representar datos, al tiempo que utilizan menos parámetros aprendidos. «Es como una vida extraterrestre que mira las cosas desde una perspectiva diferente, pero que también es comprensible para los humanos». —Ziming Liu, Instituto Tecnológico de MassachusettsLos investigadores probaron sus KAN en tareas científicas relativamente simples. En algunos experimentos, tomaron leyes físicas simples, como la velocidad con la que dos objetos de velocidad relativista se cruzan. Usaron estas ecuaciones para generar puntos de datos de entrada-salida, luego, para cada función física, entrenaron una red con algunos de los datos y la probaron con el resto. Descubrieron que aumentar el tamaño de las KAN mejora su rendimiento a un ritmo más rápido que aumentar el tamaño de las MLP. Al resolver ecuaciones diferenciales parciales, una KAN fue 100 veces más precisa que una MLP que tenía 100 veces más parámetros. En otro experimento, entrenaron redes para predecir un atributo de los nudos topológicos, llamado su firma, basándose en otros atributos de los nudos. Un MLP logró una precisión de prueba del 78 por ciento utilizando alrededor de 300.000 parámetros, mientras que un KAN logró una precisión de prueba del 81,6 por ciento utilizando solo unos 200 parámetros. Además, los investigadores pudieron mapear visualmente los KAN y observar las formas de las funciones de activación, así como la importancia de cada conexión. Ya sea de forma manual o automática, pudieron podar las conexiones débiles y reemplazar algunas funciones de activación por otras más simples, como funciones senoidales o exponenciales. Luego pudieron resumir todo el KAN en una función intuitiva de una línea (incluyendo todas las funciones de activación de los componentes), en algunos casos reconstruyendo perfectamente la función física que creó el conjunto de datos. «En el futuro, esperamos que pueda ser una herramienta útil para la investigación científica cotidiana», dice Ziming Liu, un científico informático del Instituto Tecnológico de Massachusetts y el primer autor del artículo. «Dado un conjunto de datos que no sabemos cómo interpretar, simplemente lo arrojamos a un KAN, y puede generar alguna hipótesis para usted. Simplemente mira el cerebro [the KAN diagram] «Y puedes incluso realizar una cirugía en eso si quieres». Podrías obtener una función ordenada. «Es como una vida extraterrestre que mira las cosas desde una perspectiva diferente pero también es comprensible para los humanos». Docenas de artículos ya han citado la preimpresión de KAN. «Me pareció muy emocionante el momento en que lo vi», dice Alexander Bodner, un estudiante de pregrado de ciencias de la computación en la Universidad de San Andrés, en Argentina. En una semana, él y tres compañeros de clase habían combinado KAN con redes neuronales convolucionales, o CNN, una arquitectura popular para procesar imágenes. Probaron sus KAN convolucionales en su capacidad para categorizar dígitos escritos a mano o prendas de vestir. La mejor aproximadamente igualó el rendimiento de una CNN tradicional (99 por ciento de precisión para ambas redes en dígitos, 90 por ciento para ambas en ropa) pero usando aproximadamente un 60 por ciento menos de parámetros. Los conjuntos de datos eran simples, pero Bodner dice que otros equipos con más poder de cómputo han comenzado a escalar las redes. Otras personas están combinando las KAN con transformadores, una arquitectura popular en los modelos de lenguajes grandes. Una desventaja de las KAN es que requieren más tiempo para entrenarse por parámetro, en parte porque no pueden aprovechar las GPU. Pero necesitan menos parámetros. Liu señala que incluso si las KAN no reemplazan a las CNN gigantes y a los transformadores para procesar imágenes y lenguaje, el tiempo de entrenamiento no será un problema en la escala más pequeña de muchos problemas de física. Está buscando formas para que los expertos inserten su conocimiento previo en las KAN (eligiendo manualmente funciones de activación, por ejemplo) y extraigan fácilmente el conocimiento de ellas utilizando una interfaz simple. Algún día, dice, las KAN podrían ayudar a los físicos a descubrir superconductores de alta temperatura o formas de controlar la fusión nuclear. Artículos de su sitio Artículos relacionados en la Web

Las 5 funciones principales de IA que debes usar en tu teléfono

Pero primero, un poco de historia… Las primeras funciones impulsadas por IA en los teléfonos inteligentes incluyen Face ID y Animoji en teléfonos equipados con Apple A11, como el iPhone X de 2017, impulsado por Neural Engine, la marca de Apple para su unidad de procesamiento neuronal. . Ese «motor neuronal» está diseñado para tareas de procesamiento de IA. / © Apple La NPU de Qualcomm en realidad es anterior a eso, con su Hexagon DSP (procesador de señal digital) reutilizado para acelerar el procesamiento neuronal alrededor de 2015. En ese momento, las empresas ya estaban posicionando la IA en una de las funciones más utilizadas aún en 2024: mejorar la cámara. calidad. Otras empresas también invirtieron en sus NPU poco después, y tanto MediaTek como Samsung desarrollaron sus propias soluciones. Pero la IA fue llevada al siguiente nivel gracias a un recién llegado al SoC móvil: Google y su chip Tensor de 2021, que lleva el nombre de los propios núcleos de inteligencia artificial. El momento de Google ahora parece oportuno, con todo el interés renovado que generan las herramientas de inteligencia artificial generativa como Dall-E, ChatGPT y una lista que parece expandirse diariamente. Y eso nos lleva a algunas de las funciones de IA (generativas o no) que la mayoría de nosotros podemos usar ahora mismo. Círculo para buscar (Pixel y Samsung) Google Lens puede ser una función útil en los teléfonos, pero no es la herramienta más fácil de usar. Con el lanzamiento del Galaxy S24, Samsung presentó una función de Google antes de que los teléfonos Pixel la tuvieran: simplemente presione prolongadamente la barra/botón de inicio y dibuje un círculo alrededor de un objeto para iniciar una búsqueda en Lens. Sin embargo, existe una pequeña limitación, ya que actualmente solo se puede acceder a la función Círculo para buscar en dispositivos Samsung que ejecutan One UI 6.1. Pero Samsung ya ha anunciado una lista de teléfonos que obtendrán las funciones Galaxy AI. Puede utilizar la función para identificar especies, objetos exóticos (en el siguiente ejemplo, un modelo VW exclusivo de América Latina), prendas de vestir e incluso resolver ecuaciones matemáticas. El círculo para buscar es básicamente Google-Lens-en cualquier lugar de su teléfono. / © nextpit Es cierto que Circle to Search no es una función de IA adecuada, sino más bien un atajo más conveniente para una: Google Lens. Funciones útiles de Galaxy AI en Samsung Notes Desde un atajo de IA hasta la tendencia actual en LLM (modelos de idiomas grandes), llegamos a las nuevas funciones Galaxy AI de Samsung para la aplicación Notes (entre otras). Este también depende de One UI 6.1. La aplicación, a menudo descuidada, estaba salpicada de las últimas tendencias tecnológicas y ofrece una serie de funciones diferentes impulsadas por IA. Destacaremos dos: Formato automático y Resumir, pero la versión inicial también ofrece un corrector ortográfico y una herramienta de traducción, que son bastante sencillos. Si bien una función similar está disponible en el servicio Microsoft OneNote, es exclusiva para los suscriptores de Co-Pilot. Las funciones de Samsung Notes AI, por otro lado, son gratuitas (al menos por ahora) en los teléfonos Galaxy compatibles. Formato automático Si las notas de su reunión o clase no son más que un montón de palabras aleatorias incluidas en la aplicación, el formato automático puede darle cierta apariencia de orden. La función organiza las notas en temas e incluso crea algunos encabezados basados ​​en sus anotaciones. Para usarlo, simplemente sigue estas instrucciones: Toca el botón Galaxy AI (estrellas) en una nota abierta. Seleccione Formato automático y espere brevemente a que se procese. Desliza el dedo hacia la izquierda o hacia la derecha para seleccionar entre diferentes opciones de formato. Elija Copiar/Reemplazar/Agregar a. Los encabezados «introducción» y «beneficios» fueron creados por AI, junto con los listados. / © nextpit Resumir Si necesita más que una organización para sus notas, la nueva función AI Resumarize puede darles un poco de sabor, reformulando su contenido en algo sorprendentemente útil. Para probarlo usted mismo, abra una anotación en Samsung Notes y luego: Toque el botón Galaxy AI (estrellas). Elija Resumir. Verifique la sugerencia, luego use uno de los botones para copiar, reemplazar o agregar el texto resumido en un bloc de notas. El resumen generado estuvo bien organizado en nuestras pruebas. Además #rip SnapSatellite, la tendencia de 2023 no se impuso. / © nextpit Aislamiento de voz en iPhones Esta función de iOS y iPadOS hace que las llamadas a través de líneas telefónicas, FaceTime e incluso algunas aplicaciones de terceros sean más claras, especialmente en entornos ruidosos. Voice Isolation requiere iOS 16.4 en un iPhone XR/XS o posterior y bloquea el ruido de fondo. Para activarlo: Inicia una llamada de voz o video. Abra el Centro de control deslizándose hacia abajo desde la esquina superior derecha de la pantalla. Toque el acceso directo al modo micrófono. Seleccione Aislamiento de voz. La función no requiere auriculares conectados y funciona tanto con el teléfono junto a tu cara como en una llamada de voz tradicional, como con la pantalla apuntando hacia ti en una videollamada. El aislamiento de voz permanece habilitado en las siguientes llamadas hasta que se desactiva manualmente, una cosa a tener en cuenta. Mejore la calidad de audio de sus llamadas con un interruptor oculto en iOS. / © nextpit En nuestras pruebas, la función hizo un trabajo inquietantemente bueno al eliminar el ruido de fondo que distraía, como si el orador estuviera en una cabina de sonido, incluso cuando estaba en un balcón con un tranvía pasando. Por supuesto, su kilometraje variará y siempre podrá preguntarle a la otra persona si es mejor habilitar o deshabilitar el aislamiento de voz. Elimina objetos no deseados con Magic Eraser (iPhone y Android) Todos hemos pasado por eso, la imagen “perfecta” arruinada por un dedo sobre la cámara, alguna persona al azar o, peor aún, un fotobombardero. Magic Eraser te permite simplemente editarlos, llenando el vacío con resultados sorprendentemente buenos. La función funciona con imágenes guardadas en su cuenta de Google Photos y requiere una cuenta de Google One o un teléfono Pixel compatible. Para propietarios de Pixel y suscriptores de Google One, simplemente sigan estos pasos: Seleccione una imagen en la aplicación Google Photos. Elija Editar. Seleccione el menú Herramientas. Toca Borrador mágico. Dibuja alrededor o sobre el objeto a eliminar. Confirme la edición tocando Listo y luego Guardar copia. Magic Eraser puede realizar ediciones rápidas adecuadas para compartir en las redes sociales. / © nextpit Magic Editor en Pixel y Galaxy AI Los teléfonos Pixel 8 y Galaxy S24 (por ahora) pueden usar una versión más potente de Magic Eraser. Sin embargo, mientras Magic Eraser funciona en el dispositivo (por ejemplo, sin conexión), Magic Editor procesa imágenes en los servidores de Google, lo que requiere una conexión a Internet. Los pasos son similares a los del Magic Eraser, pero Magic Editor también se puede usar para mover sujetos alrededor de la imagen, y en nuestras pruebas ofreció mejores resultados al llenar el espacio debajo de un objeto eliminado: seleccione una imagen en Google Photos (Pixel) o Galería Samsung (Galaxia). Toque el botón Magic Editor (ícono de estrellas en One UI) en la esquina inferior izquierda. Dibuja alrededor del objeto que vas a mover/eliminar. Toque el botón Borrar. En One UI, mantenga presionada la selección y elija el ícono de borrar, luego presione Generar. Confirme la edición tocando el botón de marca de verificación (Hecho en teléfonos Galaxy). Magic Editor puede mover objetos por la escena pero requiere una conexión a Internet. / © nextpit Con el procesamiento de IA basado en la nube, se recomienda leer los términos y condiciones de los servicios que utiliza, generalmente disponibles para leer antes de habilitarlos. Como regla general, no recomendamos compartir información de identificación personal ni datos confidenciales. También es importante destacar que todos los proveedores de IA desaconsejan el uso de sus servicios con fines médicos, legales, financieros u otros fines críticos. Como escribe Google en sus documentos legales: No envíe información sensible, confidencial o personal a los Servicios. ¿Qué pasa contigo? ¿Qué funciones impulsadas por IA te impresionaron? ¿Tuviste más suerte que nosotros con las funciones de traducción en vivo? ¿O crees que la IA es solo otra moda tecnológica como el metaverso, la conectividad satelital y otras tendencias de temporadas pasadas?

Source link

Todo lo que querías saber sobre el último vídeo de 1X


El mes pasado, 1X (anteriormente Halodi Robotics), con sede en Oslo, Noruega, anunció una enorme Serie B de 100 millones de dólares, y claramente han estado trabajando en ello. Un nuevo video publicado la semana pasada muestra una [insert collective noun for humanoid robots here] de manipuladores móviles tipo Android de EVE que realizan una amplia variedad de tareas aprovechando las redes neuronales de un extremo a otro (píxeles a acciones). Y lo mejor de todo es que el vídeo parece ser más o menos honesto: una sola toma, a (apropiadamente) velocidad 1X y total autonomía. ¡Pero todavía teníamos preguntas! Y 1X tiene respuestas. Si, como yo, tenías algunas preguntas muy importantes después de ver este video, incluido si esa planta está realmente muerta y el destino del cubo pesado que lo acompaña, querrás leer estas preguntas y respuestas con Eric Jang, Vicepresidente. Presidente de Inteligencia Artificial en 1X.IEEE Spectrum: ¿Cuántas tomas se necesitaron para obtener esta toma? Eric Jang: Alrededor de 10 tomas que duraron más de un minuto; Esta era la primera vez que hacíamos un video como este, así que se trataba más de aprender a coordinar al equipo de filmación y preparar el rodaje para que se viera impresionante. ¿Entrenaste a tus robots específicamente en cosas flexibles y transparentes? Jang: ¡No! Entrenamos nuestra red neuronal para que recoja todo tipo de objetos, tanto rígidos como deformables y transparentes. Debido a que entrenamos la manipulación de un extremo a otro a partir de píxeles, recoger objetos deformables y transparentes es mucho más fácil que una tubería de agarre clásica, donde tienes que descubrir la geometría exacta de lo que estás tratando de agarrar. ¿Qué impide que tus robots hagan? ¿Estas tareas son más rápidas? Jang: Nuestros robots aprenden de las demostraciones, por lo que van exactamente a la misma velocidad a la que los teleoperadores humanos demuestran la tarea. Si reunimos demostraciones en las que nos movemos más rápido, también lo harían los robots. ¿Cuántos cubos complementarios pesados ​​resultaron dañados al realizar este vídeo? Jang: A 1X, los cubos complementarios pesados ​​no tienen derechos. Ese es un método genial para cargar, pero Parece mucho más complicado que algún tipo de interfaz de acceso directo a la base. ¿Por qué utilizar la manipulación en su lugar? Jang: Tienes razón en que esta no es la forma más sencilla de cargar el robot, pero si vamos a tener éxito en nuestra misión de construir robots generalmente capaces y confiables que puedan manipular todo tipo de objetos, nuestro Las redes neuronales deben poder realizar esta tarea como mínimo. Además, ¡reduce bastante los costos y simplifica el sistema! ¿Qué animal se supone que es ese peluche azul? Jang: Es un tiburón obeso, creo. ¿Cuántos robots diferentes hay en este video? Jang: ¿17? Y más que son estacionarios. ¿Cómo se distinguen los robots? Jang: Tienen pequeños números impresos en la base. ¿Esa planta está muerta? Jang: Sí, la pusimos allí porque ningún video renderizado CGI/3D jamás pasaría por el problema de agregar una planta muerta. ¿Qué tipo de crisis existencial está teniendo el robot en la ventana? Jang: Se suponía que debía estar abriendo y cerrando la ventana repetidamente (bueno para probar la significancia estadística). Si uno de los robots fuera en realidad un humano con un casco y un traje con pinzas y de pie sobre una base móvil, ¿podría saberlo? Jang: Me sentí muy halagado por este comentario en el video de Youtube: Pero si nos fijamos en el área donde la parte superior del brazo se estrecha en la hombro, es demasiado delgado para que un humano quepa dentro y al mismo tiempo tenga hombros tan anchos: ¿Por qué tus robots están tan felices todo el tiempo? ¿Estás planeando hacer cosas más complejas de HRI con sus caras? Jang: Sí, ¡se están preparando cosas más complejas de HRI! ¿Tus robots pueden colaborar entre sí de forma autónoma? Jang: ¡Estén atentos! ¿Es el tetrominó sesgado el tetrominó más difícil para la manipulación robótica? Jang: ¡Buen partido! Sí, el verde es el peor de todos porque hay muchas formas válidas de pellizcarlo con la pinza y levantarlo. En el aprendizaje robótico, si hay varias formas de captar algo, en realidad puede confundir el modelo de aprendizaje automático. Algo así como pedirle a un automóvil que gire a la izquierda y a la derecha al mismo tiempo para evitar un árbol. Los robots de todos los demás están haciendo café. ¿Tus robots pueden hacer café? Jang: ¡Sí! Estábamos planeando incluir algo de preparación de café en este video como huevo de Pascua, pero la máquina de café se rompió justo antes del rodaje de la película y resulta que es imposible conseguir un Keurig K-Slim en Noruega mediante envío al día siguiente. Actualmente, 1X es Contratar investigadores de IA (aprendizaje por imitación, aprendizaje por refuerzo, capacitación a gran escala, etc.) y operadores de Android (!), lo que en realidad suena como un trabajo súper divertido e interesante. Más aquí. Artículos de su sitio Artículos relacionados en la Web

Source link

Funciona con WordPress & Tema de Anders Norén