Benj Edwards / Google DeepMind El miércoles, los investigadores de Google DeepMind revelaron el primer jugador de tenis de mesa robótico impulsado por IA capaz de competir a nivel amateur. El sistema combina un brazo robótico industrial llamado ABB IRB 1100 y un software de IA personalizado de DeepMind. Si bien un jugador humano experto aún puede vencer al bot, el sistema demuestra el potencial de las máquinas para dominar tareas físicas complejas que requieren una toma de decisiones y adaptabilidad en fracciones de segundo. «Este es el primer agente robótico capaz de jugar un deporte con humanos a nivel humano», escribieron los investigadores en un artículo preimpreso que figura en arXiv. «Representa un hito en el aprendizaje y el control de los robots». El agente robótico sin nombre (sugerimos «AlphaPong»), desarrollado por un equipo que incluye a David B. D’Ambrosio, Saminda Abeyruwan y Laura Graesser, mostró un rendimiento notable en una serie de partidos contra jugadores humanos de diferentes niveles de habilidad. En un estudio que involucró a 29 participantes, el robot impulsado por IA ganó el 45 por ciento de sus partidos, demostrando un juego sólido a nivel amateur. En particular, logró una tasa de victorias del 100 por ciento contra principiantes y una tasa de victorias del 55 por ciento contra jugadores intermedios, aunque tuvo dificultades contra oponentes avanzados. Un video de Google DeepMind del agente de IA jugando con un jugador de tenis de mesa humano. Un video de Google DeepMind del agente de IA jugando con un jugador de tenis de mesa humano. La configuración física consiste en el IRB 1100 antes mencionado, un brazo robótico de 6 grados de libertad, montado sobre dos pistas lineales, lo que le permite moverse libremente en un plano 2D. Las cámaras de alta velocidad rastrean la posición de la pelota, mientras que un sistema de captura de movimiento monitorea los movimientos de la paleta del oponente humano. La IA en el núcleo Para crear los cerebros que impulsan el brazo robótico, los investigadores de DeepMind desarrollaron un enfoque de dos niveles que permite al robot ejecutar técnicas específicas de tenis de mesa mientras adapta su estrategia en tiempo real al estilo de juego de cada oponente. En otras palabras, es lo suficientemente adaptable para jugar al tenis de mesa con cualquier humano amateur sin requerir un entrenamiento específico por jugador. La arquitectura del sistema combina controladores de habilidades de bajo nivel (políticas de red neuronal entrenadas para ejecutar técnicas específicas de tenis de mesa como golpes de derecha, devoluciones de revés o respuestas de servicio) con un tomador de decisiones estratégicas de alto nivel (un sistema de IA más complejo que analiza el estado del juego, se adapta al estilo del oponente y selecciona qué política de habilidad de bajo nivel activar para cada pelota entrante). Los investigadores afirman que una de las innovaciones clave de este proyecto fue el método utilizado para entrenar los modelos de IA. Los investigadores eligieron un enfoque híbrido que utilizó el aprendizaje de refuerzo en un entorno de física simulada, al tiempo que basaba los datos de entrenamiento en ejemplos del mundo real. Esta técnica permitió al robot aprender de alrededor de 17.500 trayectorias de pelotas del mundo real, un conjunto de datos bastante pequeño para una tarea compleja. Un video de Google DeepMind que muestra una ilustración de cómo el agente de IA analiza a los jugadores humanos. Un video de Google DeepMind que muestra una ilustración de cómo el agente de IA analiza a los jugadores humanos. Los investigadores utilizaron un proceso iterativo para refinar las habilidades del robot. Comenzaron con un pequeño conjunto de datos de juego entre humanos y luego dejaron que la IA se enfrentara a oponentes reales. Cada partido generó nuevos datos sobre las trayectorias de las pelotas y las estrategias humanas, que el equipo incorporó a la simulación para un mayor entrenamiento. Este proceso, repetido durante siete ciclos, permitió que el robot se adaptara continuamente a oponentes cada vez más hábiles y a diversos estilos de juego. En la ronda final, la IA había aprendido de más de 14.000 pelotas de peloteo y 3.000 servicios, creando un conjunto de conocimientos de tenis de mesa que le ayudó a salvar la brecha entre la simulación y la realidad. Curiosamente, Nvidia también ha estado experimentando con sistemas de física simulada similares, como Eureka, que permiten que un modelo de IA aprenda rápidamente a controlar un brazo robótico en el espacio simulado en lugar del mundo real (ya que la física se puede acelerar dentro de la simulación y se pueden realizar miles de pruebas simultáneas). Es probable que este método reduzca drásticamente el tiempo y los recursos necesarios para entrenar a los robots para interacciones complejas en el futuro. Los humanos disfrutaron jugando contra él Más allá de sus logros técnicos, el estudio también exploró la experiencia humana de jugar contra un oponente de IA. Sorprendentemente, incluso los jugadores que perdieron contra el robot informaron que disfrutaron de la experiencia. «En todos los grupos de habilidades y tasas de victorias, los jugadores coincidieron en que jugar con el robot era ‘divertido’ y ‘atractivo'», señalaron los investigadores. Esta recepción positiva sugiere posibles aplicaciones para la IA en el entrenamiento deportivo y el entretenimiento. Sin embargo, el sistema no está exento de limitaciones. Tiene dificultades con pelotas extremadamente rápidas o altas, tiene dificultades para leer giros intensos y muestra un rendimiento más débil en jugadas de revés. Google DeepMind compartió un video de ejemplo del agente de IA perdiendo un punto contra un jugador avanzado debido a lo que parece ser una dificultad para reaccionar a un golpe rápido, como puede ver a continuación. Un video de Google DeepMind del agente de IA jugando contra un jugador humano avanzado. Un video de Google DeepMind del agente de IA jugando contra un jugador humano avanzado. Las implicaciones de este prodigio robótico del ping-pong se extienden más allá del mundo del tenis de mesa, según los investigadores. Las técnicas desarrolladas para este proyecto podrían aplicarse a una amplia gama de tareas robóticas que requieren reacciones rápidas y adaptación a un comportamiento humano impredecible. Desde la fabricación hasta la atención sanitaria (o simplemente pegarle a alguien con una pala repetidamente), las posibles aplicaciones parecen ser enormes. El equipo de investigación de Google DeepMind enfatiza que, con un mayor refinamiento, creen que el sistema podría competir potencialmente con los jugadores de tenis de mesa avanzados en el futuro. DeepMind no es ajeno a la creación de modelos de IA que pueden derrotar a jugadores humanos de juegos, incluidos AlphaZero y AlphaGo. Con este último agente robótico, parece que la empresa de investigación está pasando de los juegos de mesa a los deportes físicos. El ajedrez y el Jeopardy ya han caído ante vencedores impulsados ​​por IA; tal vez el tenis de mesa sea el próximo.