Gill Pratt dirige le Toyota Research Institute (TRI) depuis sa creation en 2015. Avant cela, il a concu le DARPA Robotics Challenge, la competition qui a donne naissance aux humanoïdes modernes. Dans une interview fleuve publiee par IEEE Spectrum le 2 avril 2026, il affirme que le moment tant attendu est la. Mais pas pour la raison qu’on croit.
Le cerveau a enfin rattrape le corps
La these de Pratt tient en une phrase : ce qui a change, ce n’est pas l’humanoïde lui-meme, c’est son intelligence. Les mecanismes etaient deja capables depuis des annees. Ce qui manquait, c’etait un moyen de transformer ce potentiel en utilite reelle. La revolution IA des dernieres annees a comble ce fosse.
Concretement, TRI a mis au point il y a deux ans la « diffusion policy », une methode qui permet aux robots d’apprendre des comportements en observant des demonstrations plutot qu’en ecrivant du code ligne par ligne. Pratt affirme que depuis cette percee, « toutes les demonstrations de robotique que nous avons vues utilisent une forme de diffusion policy ».

Systeme 1 contre systeme 2 : le vrai defi
Pratt distingue deux types de pensee appliques a la robotique. Le « systeme 1 », rapide et reflexif, correspond au pattern matching des LLMs actuels. C’est ce que fait la diffusion policy : « si je vois le monde comme ca, j’agis comme ca ». Le probleme : ca fonctionne bien dans des situations familieres, mais ca casse des qu’on sort du cadre.
Le « systeme 2 », celui de l’imagination et du raisonnement, n’existe pas encore chez les robots. Pratt rejoint ici la position de Yann LeCun : les modeles de langage ne raisonnent pas vraiment. « Dire qu’il y a du raisonnement, c’est juste une etiquette qu’on colle sur ce qu’on a construit », tranche-t-il.
Pour Pratt, les tentatives de « patcher » le systeme 1 pour en faire du systeme 2 ressemblent a « presser un ballon rempli d’eau : on corrige un probleme et un autre apparait ailleurs ». La vraie solution passe par les « world models », des systemes capables de simuler et d’anticiper les consequences de leurs actions.
TRI et les « Large Behavior Models »
Le Toyota Research Institute a developpe ce qu’il appelle les Large Behavior Models (LBMs). Le principe : entrainer un seul modele sur de nombreuses taches differentes. Resultat : chaque nouvelle tache ajoutee aide les autres et reduit la quantite de donnees necessaires. C’est un progres considerable pour le systeme 1, mais Pratt insiste : ce n’est qu’une etape.
Le goulot d’etranglement actuel, ce sont les donnees. Comment savoir quelle quantite suffit pour qu’un robot realise une tache de facon fiable ? Pratt compare la situation a celle de la conduite autonome il y a dix ans : tout le monde pensait que c’etait imminent. Dix ans plus tard, on y arrive, mais le chemin a ete bien plus long que prevu.
Pourquoi ca compte
Quand le patron de la branche recherche de Toyota valide publiquement le marche des humanoïdes, ca envoie un signal fort aux investisseurs et aux industriels. Toyota n’est pas une startup en quete de buzz : c’est le premier constructeur automobile mondial, avec des milliards en R&D. Si TRI affirme que les conditions technologiques et economiques sont reunies, les programmes pilotes concrets ne devraient pas tarder.
La question n’est plus « est-ce que les humanoïdes vont marcher ? » mais « dans combien de temps passeront-ils du systeme 1 au systeme 2 ? ». Et la, meme Gill Pratt ne se risque pas a donner de date.