
De la cinématique à la dynamique : apprendre à affiner des plans hybrides pour une exécution physiquement faisable
Une équipe de chercheurs présente dans un préprint arXiv (2604.12474, avril 2026) une méthode d'apprentissage par renforcement (RL) conçue pour corriger les trajectoires générées par des planificateurs hybrides temporels avant exécution réelle sur un robot. Le problème central est classique : lorsqu'un robot doit traverser une séquence de régions spatiales en respectant des contraintes de délais, de fenêtres temporelles et de limites en vitesse ou accélération, les planificateurs hybrides actuels modélisent le mouvement via des dynamiques linéaires du premier ordre (cinématique pure), sans tenir compte des contraintes physiques réelles du système. Il en résulte des plans qui sont logiquement valides mais dynamiquement infaisables. Les auteurs formalisent ce problème de raffinement comme un processus de décision markovien (MDP) intégrant explicitement des contraintes analytiques du second ordre (accélération, couple) et entraînent un agent RL en espace continu pour transformer le plan initial en une trajectoire exécutable.
L'intérêt pratique est direct pour les intégrateurs et les équipes robotique : le sim-to-real gap le plus coûteux n'est souvent pas dans la perception ou la préhension, mais dans le suivi de trajectoire. Un plan validé par un planificateur symbolique peut générer des couples impossibles ou des profils de vitesse non bornés, forçant les équipes terrain à retoucher les trajectoires à la main ou à surcontraindre le planificateur. La méthode proposée agit comme une couche de post-traitement apprenante qui récupère la faisabilité physique de manière fiable, sans rejeter la séquence d'actions de haut niveau, et sans nécessiter une re-planification complète. Cela positionne l'approche comme un outil de robustification entre le niveau symbolique et le contrôleur bas niveau, un segment peu adressé dans la littérature.
Les planificateurs hybrides temporels comme PDDL+ ou ENHSP tentent depuis une décennie d'intégrer la dynamique continue dans la planification symbolique, avec des résultats limités dès que les modèles s'éloignent de la linéarité. Les approches concurrentes incluent le MPC (Model Predictive Control) et les méthodes de trajectory optimization (iLQR, MPPI), mais elles supposent généralement un plan discret déjà fixé ou ignorent les contraintes temporelles symboliques. La contribution ici est leur combinaison explicite via RL. Le papier reste au stade de la preuve de concept sur des scénarios de navigation structurés ; les prochaines étapes naturelles seraient la validation sur hardware avec des dynamiques plus riches (bras manipulateurs, humanoïdes) et des benchmarks comparatifs contre MPC sur des horizons longs.



