Un equipo de investigadores de Brown University desarrolló un sistema que permite a los robots localizar objetos combinando lenguaje, gestos y visión, con una tasa media de acierto del 89%. La clave del avance es tan inesperada como fascinante: estudiaron cómo los perros interpretan las señales humanas para replicar esa lógica en máquinas.
El sistema se llama LEGS-POMDP y funciona dentro de un marco probabilístico diseñado para actuar en condiciones de incertidumbre. En lugar de exigir órdenes exactas, el robot aprende a convivir con la ambigüedad: interpreta un dedo que apunta, una mirada que acompaña y una instrucción dicha a medias. Los investigadores modelaron el gesto humano de señalar como un cono de probabilidad, no como una línea rígida, basándose en estudios del Brown Dog Lab sobre cómo los perros leen nuestros movimientos.
El trabajo fue aceptado en HRI 2026, la conferencia internacional sobre interacción humano-robot celebrada en Edimburgo. Las pruebas incluyeron simulaciones exigentes y validación con un robot cuadrúpedo real.
Las aplicaciones prácticas van desde encontrar una medicación en una encimera abarrotada hasta recuperar herramientas en un entorno industrial, sin necesidad de comandos artificialmente precisos. La robótica mira a los perros para aprender algo que ellos dominan hace miles de años: interpretar mejor en lugar de ver más.
