Nuevas capacidades - La toma de decisiones en tiempo real y la adaptación a cambios continuos pueden aplicarse en entornos industriales y otros ámbitos donde se necesita precisión ante situaciones variablesUn robot se pone a pelotear con humanos y decide fijarse en sus fallos: así está aprendiendo a jugar al tenis mejor
La mejora en la capacidad de movimiento y reacción ha cambiado el papel de los robots en tareas físicas exigentes, hasta el punto de que algunos sistemas ya responden a estímulos que varían en milisegundos y ajustan su acción en tiempo real.
Los robots y agentes robóticos avanzan en cualidades físicas que les permiten actuar en entornos abiertos, no limitados a trayectorias fijas, y responder a situaciones que cambian de forma continua. Esa evolución incluye mayor velocidad de respuesta y mejor adaptación al entorno, algo necesario en actividades donde el objeto en movimiento puede cambiar de dirección en cualquier instante.
En juegos de raqueta, los tiros pueden salir en cualquier ángulo y con efectos difíciles de prever, y los humanos necesitan anticipación y reflejos para llegar a la pelota antes de que caiga o cambie su trayectoria. Esto es una dificultad que pone al límite a las personas y que durante años había dejado fuera a cualquier robot de ese nivel.
Un sistema de Sony AI vence a rivales expertos
Un robot desarrollado por Sony AI ha alcanzado nivel experto en tenis de mesa y ha vencido a jugadores de alto nivel en condiciones reales, según un estudio publicado en Nature y recogido por The Associated Press. El sistema, llamado Ace, logró imponerse en varios enfrentamientos con jugadores experimentados en Tokio y mostró capacidad para responder a intercambios rápidos dentro de las normas oficiales de competición.
El trabajo demuestra que la inteligencia artificial puede trasladarse de entornos simulados al mundo físico con resultados medibles, manteniendo un rendimiento comparable al de atletas que entrenan durante horas cada semana.
La mejora técnica permite competir en condiciones reales
El desarrollo técnico de Ace se basa en aprendizaje por refuerzo, un método que permite al sistema mejorar a partir de la experiencia acumulada en cada jugada. Peter Dürr, investigador de Sony AI y coautor del estudio en Nature, explicó que “no hay forma de programar un robot a mano para jugar al tenis de mesa”.
El sistema aprende a partir de repeticiones, ajusta sus decisiones y modifica su comportamiento en función del resultado de cada intercambio. Este enfoque permite que el robot refine sus movimientos y adapte su estrategia sin depender de instrucciones rígidas.
El sistema gana varios duelos pero cede ante profesionales
El robot no utiliza visión humana, sino que procesa imágenes captadas por varias cámaras distribuidas alrededor de la mesa, lo que le permite seguir la posición y dirección de la pelota desde distintos ángulos. Ese sistema detecta incluso el giro del objeto al observar detalles como el logotipo, lo que mejora la precisión en la devolución.
Los partidos se disputaron bajo reglas oficiales de la Federación Internacional de Tenis de Mesa y con árbitros, en una mesa de tamaño estándar construida en la sede de Sony en Tokio, lo que asegura que las condiciones sean comparables a las de una competición real.
Ace logró derrotar a varios jugadores de alto nivel y ganó tres de cinco encuentros frente a rivales experimentados, aunque perdió frente a profesionales. El robot demostró tener un buen arsenal y ejecutó golpes complejos, devolvió pelotas tras rebotes en la red y manejó efectos como el retroceso con eficacia. Además, su rendimiento mejoró a medida que disputaba más partidos, lo que indica que el sistema seguía aprendiendo durante la competición.
Rui Takenaka, jugador de élite que compitió contra el robot, explicó que “si utilizaba un saque con efecto complejo, Ace devolvía la pelota con un efecto complejo”. Ese comportamiento dificultaba la respuesta humana porque replicaba el nivel técnico del rival.
Kinjiro Nakamura, participante en los Juegos Olímpicos de Barcelona 1992, afirmó tras observar un golpe que “nadie más habría podido hacer eso”. El exjugador añadió que ese tipo de ejecución abre la posibilidad de que los humanos intenten reproducir acciones que antes no se consideraban alcanzables.
El avance supera intentos previos en tenis de mesa robótico
El avance contrasta con intentos anteriores de crear robots capaces de jugar al tenis de mesa, que se remontan a 1983 con el trabajo de John Billingsley. Aunque otros proyectos, como los desarrollados por DeepMind, también abordaron este reto, los sistemas anteriores no lograban competir con jugadores profesionales. Billingsley señaló en declaraciones a The Associated Press que el uso de múltiples sistemas de visión da ventaja a la máquina frente a un humano que solo dispone de dos ojos.
El desarrollo de Ace también plantea posibles aplicaciones fuera del deporte. Michael Spranger, presidente de Sony AI, explicó que el objetivo no era construir una máquina que golpeara más fuerte que cualquier persona, sino un sistema capaz de jugar con reglas comparables y tomar decisiones en tiempo real.
Esa capacidad puede trasladarse a entornos industriales donde las condiciones cambian constantemente y requieren respuestas rápidas, y también a otros campos donde la percepción y la adaptación resultan necesarias para actuar con precisión.