Mientras se prepara para una noche de relajación en casa, puede pedirle a su teléfono inteligente que toque su canción favorita o le diga a su asistente de casa que atenúe las luces. Estas tareas se sienten simples porque están impulsadas por la inteligencia artificial (IA) que ahora está integrada en nuestras rutinas diarias. En el corazón de estas interacciones suaves se encuentra Edge AI, AI que opera directamente en dispositivos como teléfonos inteligentes, dispositivos portátiles y dispositivos IoT, proporcionando respuestas inmediatas e intuitivas. La AI de ENDE se refiere a la implementación de algoritmos de IA directamente en dispositivos en el «borde» de la red, en lugar de confiar en los centros de datos de la nube centralizados. Este enfoque aprovecha las capacidades de procesamiento de los dispositivos EDGE, como las computadoras portátiles, teléfonos inteligentes, relojes inteligentes y aparatos caseros, para tomar decisiones localmente. El AI de la AI ofrece ventajas críticas para la privacidad y la seguridad: al minimizar la necesidad de transmitir datos confidenciales a través de Internet, el borde AI reduce el riesgo de infracciones de datos. También mejora la velocidad del procesamiento de datos y la toma de decisiones, lo cual es crucial para aplicaciones en tiempo real como wearables de atención médica, automatización industrial, realidad aumentada y juegos. Edge AI puede incluso funcionar en entornos con conectividad intermitente, lo que respalda la autonomía con mantenimiento limitado y la reducción de los costos de transmisión de datos. Mientras que la IA ahora está integrada en muchos dispositivos, permitiendo que las capacidades de IA potentes en los dispositivos cotidianos sean técnicamente desafiantes. Los dispositivos de borde funcionan dentro de las restricciones estrictas sobre la potencia de procesamiento, la memoria y la duración de la batería, ejecutando tareas complejas dentro de las especificaciones de hardware modestas. Por ejemplo, para que los teléfonos inteligentes realicen un reconocimiento facial sofisticado, deben usar algoritmos de optimización de punta de corte para analizar imágenes y coincidir con las características de los milisegundos. La traducción en tiempo real en los auriculares requiere mantener un bajo uso de energía para garantizar la duración prolongada de la batería. Y aunque los modelos de IA basados en la nube pueden confiar en servidores externos con una amplia potencia computacional, los dispositivos de borde deben conformarse con lo que está disponible. Este cambio al procesamiento de borde cambia fundamentalmente cómo se desarrollan, optimizan e implementan los modelos de IA. Este proceso, a menudo denominado compresión del modelo, implica algoritmos avanzados como la búsqueda de arquitectura neural (NAS), el aprendizaje de transferencia, la poda y la cuantización. La optimización del modelo debe comenzar seleccionando o diseñando una arquitectura de modelo específicamente adecuada para las capacidades de hardware del dispositivo, luego refinarla para ejecutar eficientemente en dispositivos de borde específico. Las técnicas NAS utilizan algoritmos de búsqueda para explorar muchos modelos de IA posibles y encontrar el más adecuado para una tarea particular en el dispositivo Edge. Las técnicas de aprendizaje de transferencia entrenan un modelo mucho más pequeño (el estudiante) utilizando un modelo más grande (el maestro) que ya está capacitado. La poda implica eliminar los parámetros redundantes que no afectan significativamente la precisión, y la cuantificación convierte a los modelos para utilizar la aritmética de menor precisión para ahorrar en el uso de la computación y la memoria. Al llevar los últimos modelos AI a dispositivos de borde, es tentación de enfocarse solo en cómo pueden realizar cálculos básicos de manera eficiente, especificaciones, especificaciones, «multiplicadas», o acumulaciones «, o macs. En términos simples, Mac Efficiency mide la rapidez con que un chip puede hacer los cálculos en el corazón de la IA: multiplicar números y agregarlos. Los desarrolladores de modelos pueden obtener «visión del túnel Mac», centrándose en esa métrica e ignorando otros factores importantes. Algunos de los modelos de IA más populares, como Mobilenet, EfficientNet y Transformers para aplicaciones de visión, están diseñados para ser extremadamente eficientes en estos cálculos. Pero en la práctica, estos modelos no siempre funcionan bien en los chips AI dentro de nuestros teléfonos o relojes inteligentes. Esto se debe a que el rendimiento del mundo real depende de algo más que la velocidad matemática, también se basa en la rapidez con que los datos pueden moverse dentro del dispositivo. Si un modelo necesita constantemente obtener datos de la memoria, puede ralentizar todo, sin importar cuán rápido sean los cálculos. Los modelos más antiguos, más antiguos y voluminosos, como Resnet, a veces funcionan mejor en los dispositivos actuales. Es posible que no sean los más nuevos o más simplificados, pero el regreso y el final entre la memoria y el procesamiento es mucho más adecuado para las especificaciones de los procesadores de IA. En pruebas reales, estos modelos clásicos han entregado una mejor velocidad y precisión en los dispositivos de borde, incluso después de ser recortados para encajar. ¿La lección? El «mejor» modelo de IA no siempre es el que tiene el nuevo diseño más llamativo o la más alta eficiencia teórica. Para los dispositivos de borde, lo que más importa es qué tan bien se ajusta un modelo con el hardware en el que realmente se está ejecutando. Y ese hardware también está evolucionando rápidamente. Para mantenerse al día con las demandas de la IA moderna, los fabricantes de dispositivos han comenzado a incluir chips dedicados especiales llamados aceleradores de IA en teléfonos inteligentes, relojes inteligentes, wearables y más. Estos aceleradores se construyen específicamente para manejar los tipos de cálculos y movimiento de datos que requieren los modelos de IA. Cada año trae avances en arquitectura, fabricación e integración, asegurar que el hardware mantenga el ritmo de las tendencias de IA. El camino por delante para los modelos de IA auxiliares en dispositivos de IA se complica aún más por la naturaleza fragmentada del ecosistema. Debido a que muchas aplicaciones requieren modelos personalizados y hardware específicos, hay una falta de estandarización. Lo que se necesita son herramientas de desarrollo eficientes para optimizar el ciclo de vida del aprendizaje automático para aplicaciones de borde. Dichas herramientas deberían facilitar que los desarrolladores optimicen el rendimiento del mundo real, el consumo de energía y la latencia. La colaboración entre fabricantes de dispositivos y desarrolladores de IA está reduciendo la brecha entre la ingeniería y la interacción del usuario. Las tendencias emergentes se centran en la conciencia de contexto y el aprendizaje adaptativo, lo que permite que los dispositivos anticipen y respondan a las necesidades del usuario de manera más natural. Al aprovechar las señales ambientales y observar los hábitos de los usuarios, Edge AI puede proporcionar respuestas que se sientan intuitivas y personales. La inteligencia localizada y personalizada está preparada para transformar nuestra experiencia de tecnología y del mundo. De los artículos de su sitio, artículos relacionados con la web