Amazon Web Services pousse l’agentique d’un cran. Le 4 mai 2026, AWS a lancé une nouvelle expérience agentique au sein d’Amazon SageMaker AI, sa plateforme cloud de machine learning. Objectif affiché : faire passer la customisation d’un modèle de langage d’un projet de plusieurs mois à un workflow bouclé en quelques jours, voire quelques heures, pilotable directement depuis un IDE de développement.
L’annonce, publiée par AWS et relayée le même jour par The Decoder, vise un public clair : les développeurs qui veulent fine-tuner un modèle ouvert sur leur propre cas d’usage métier sans manipuler des dizaines d’API et de formats de données différents. Le développeur décrit son cas en langage naturel, et l’agent recommande la méthode d’entraînement, prépare les données, lance la session de training, puis livre le code dans un Jupyter notebook prêt à réutiliser.
Llama, Qwen, DeepSeek, GPT-OSS et Nova compilés sous un même workflow
Le périmètre de modèles couverts est large. SageMaker AI prend en charge les familles ouvertes les plus utilisées du marché : Llama (Meta), Qwen (Alibaba), DeepSeek, GPT-OSS et Amazon Nova, le modèle maison du géant de Seattle. C’est un signal fort : AWS ne pousse pas seulement Bedrock et ses propres modèles, il met aussi sur un pied d’égalité les modèles ouverts chinois et open-source américains. Pour un client final, cela évite le verrouillage vers une seule famille de modèles.
L’agent décompose le workflow en neuf compétences pré-construites baptisées « skills », qui couvrent toutes les étapes : analyse du dataset, préparation des données, choix de la technique d’entraînement, exécution, évaluation qualité via une approche LLM-as-a-judge, et déploiement final vers Amazon Bedrock ou des endpoints SageMaker. Les techniques avancées sont gérées : supervised fine-tuning pour l’instruction tuning, Direct Preference Optimization pour ajuster le ton et les préférences, et Reinforcement Learning pour les cas d’usage à correction vérifiable.
Un agent agnostique : Kiro, Claude Code ou GitHub Copilot
L’autre point notable concerne l’agnosticisme de l’agent. AWS pré-installe son propre Kiro AI agent dans SageMaker Studio Notebooks, mais les skills sont aussi installables via un plugin GitHub officiel dans n’importe quel IDE compatible : Visual Studio, Cursor, et au-delà. Les développeurs peuvent piloter le workflow via Kiro, Claude Code (Anthropic) ou GitHub Copilot. Le code généré reste éditable, transparent, reproductible et intégrable dans des pipelines AIOps.
Ce positionnement ouvert n’est pas anodin. Microsoft pousse Copilot, Anthropic pousse Claude Code, Cursor cartonne chez les développeurs IA. AWS choisit de jouer la compatibilité plutôt que l’exclusivité, comme l’avait fait Bedrock dès son lancement avec ses modèles tiers. C’est une stratégie cohérente avec sa posture historique d’infrastructure ouverte.
Le fine-tuning sort enfin de l’enfer du undifferentiated heavy lifting
Pendant longtemps, fine-tuner un modèle sur ses données était un projet d’équipe ML dédiée. Il fallait préparer le dataset au bon format, choisir entre LoRA, QLoRA ou full fine-tuning, sélectionner les hyperparamètres, monter l’infrastructure GPU, gérer les checkpoints, évaluer le modèle, puis le déployer en production. C’est précisément ce qu’AWS appelle l’« undifferentiated heavy lifting » : du travail technique sans valeur métier, qui freine massivement l’adoption.
L’agentique change la nature du problème. Le développeur métier décrit son besoin (« je veux un assistant qui connaît mon catalogue produit et qui répond avec le ton de notre marque »), et l’agent exécute toute la chaîne. Reste à voir la qualité réelle des modèles produits sur des cas concrets : le diable est dans les détails de la préparation de données et du choix des hyperparamètres. Mais la disponibilité de l’expérience dans quatre régions AWS (Virginie du Nord, Irlande, Oregon et Tokyo) montre qu’Amazon estime le produit prêt pour des charges sérieuses.
Pour les éditeurs européens et français qui veulent fine-tuner Mistral, Llama 3 ou Qwen sur leurs données souveraines, l’option européenne via la région Irlande est intéressante. Reste à voir si Mistral apparaîtra à terme dans la liste des modèles supportés, ce qui n’est pas encore le cas dans l’annonce officielle.

Sources : AWS What’s New ; The Decoder.