[{"data":1,"prerenderedAt":766},["ShallowReactive",2],{"/fr-fr/blog/what-is-mlops":3,"navigation-fr-fr":36,"banner-fr-fr":442,"footer-fr-fr":452,"blog-post-authors-fr-fr-GitLab France Team":662,"blog-related-posts-fr-fr-what-is-mlops":677,"assessment-promotions-fr-fr":718,"next-steps-fr-fr":757},{"id":4,"title":5,"authorSlugs":6,"body":8,"categorySlug":9,"config":10,"content":14,"description":8,"extension":24,"isFeatured":11,"meta":25,"navigation":26,"path":27,"publishedDate":19,"seo":28,"stem":32,"tagSlugs":33,"__hash__":35},"blogPosts/fr-fr/blog/what-is-mlops.yml","What Is Mlops",[7],"gitlab-france-team",null,"ai-ml",{"featured":11,"template":12,"slug":13},false,"BlogPost","what-is-mlops",{"title":15,"description":16,"authors":17,"date":19,"body":20,"tags":21,"category":9,"heroImage":23},"Qu’est-ce que MLOps ?","Guide complet MLOps : comment il rapproche data science et ingénierie, automatise les workflows, assure la reproductibilité, la gouvernance et la conformité.",[18],"GitLab France Team","2025-11-07","**Le MLOps (Machine Learning Operations) désigne l’ensemble des pratiques\nqui permettent de déployer, surveiller et maintenir des modèles de machine\nlearning en production, de façon fiable et durable.**\n\n\nMettre en production un modèle n’est pas qu’une question d’entraînement. Entre la préparation des données, le déploiement, le suivi des performances et la maintenance, les équipes se heurtent à une complexité qui dépasse largement le simple développement. Résultat : des délais qui s’allongent, des coûts qui explosent, une fiabilité qui s’effondre.\n\n\n**En résumé : le MLOps est au machine learning ce que le [DevOps](https://about.gitlab.com/fr-fr/topics/devops/ \"Qu'est-ce que le DevOps ?\") est au développement logiciel, c'est-à-dire une approche structurée qui automatise les workflows, améliore la collaboration entre les équipes data science et d’ingénierie, et garantit la continuité des modèles en production.**\n\n\nEn organisant tout le cycle de vie des modèles, de la conception à l’amélioration continue, le MLOps permet aux organisations de tirer un maximum de valeur de leurs projets d’IA et d’inscrire ces derniers dans la durée.\n\n\n> **[&rarr; Essayez GitLab Ultimate et GitLab Duo Enterprise gratuitement.](https://about.gitlab.com/fr-fr/free-trial/devsecops/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr)**\n\n\n## Définition et rôle du MLOps\n\n\nLe terme **MLOps** vient de la contraction de *Machine Learning et Operations*. Il désigne l’ensemble des pratiques, outils et méthodes qui permettent de gérer le cycle de vie complet des modèles de machine learning, depuis leur conception jusqu’à leur exploitation en production.\n\n\nL’idée centrale est de **rapprocher deux univers souvent séparés** : celui des **Data Scientists**, qui développent et entraînent les modèles, et celui des **équipes d'ingénierie**, qui doivent les déployer, les surveiller et les maintenir. En créant ce lien, le MLOps assure une continuité entre l’expérimentation et l’utilisation réelle.\n\n\nSon rôle dépasse donc la simple automatisation. Le MLOps vise à garantir la fiabilité des modèles dans le temps, à fluidifier la collaboration entre équipes et à donner aux organisations un cadre pour [exploiter le machine learning de manière industrielle et durable](https://about.gitlab.com/fr-fr/the-source/ai/6-strategies-to-help-developers-accelerate-ai-adoption/).\n\n\n![Cartographie du concept MLOps](https://res.cloudinary.com/about-gitlab-com/image/upload/v1762517964/cwgub5rfekc0wzcms012.png)\n\n\n## Pourquoi le MLOps est-il devenu indispensable ?\n\n\nLe machine learning s’est imposé bien au-delà de la recherche. Les cas d’usage se multiplient : détection de fraude en temps réel, recommandations personnalisées, maintenance prédictive, assistants génératifs. Ces modèles ne restent pas au stade expérimental : ils doivent tourner en production, souvent avec des exigences de latence strictes et sous des contraintes fortes.\n\n\nOr, les difficultés apparaissent rapidement. Les **cycles de déploiement s’allongent**, les modèles se dégradent dès que les données évoluent, et les résultats deviennent difficiles à auditer. Sans optimisation, les coûts d’infrastructure s’envolent. Ces freins sont désormais bien connus des équipes.\n\n\nLe MLOps apporte une réponse structurée à ces problèmes. Il standardise le **déploiement**, le **suivi** et la **gouvernance** des modèles. Il permet aussi de préparer l’avenir : intégrer l’AutoML, gérer des modèles génératifs, se conformer aux nouvelles réglementations comme l’AI Act (règlement européen sur l’intelligence artificielle).\n\n\nPour beaucoup d’organisations, l’adoption du MLOps marque une étape de **maturité**. Elle conditionne la capacité à transformer des prototypes en actifs pérennes et à inscrire l’IA dans une stratégie d’entreprise crédible.\n\n\n## Quels sont les avantages du MLOps ?\n\n\nLe MLOps ne se résume pas à une méthode : c’est un changement de culture qui rend le machine learning **plus rapide, plus fiable et plus scalable** à chaque étape du cycle de vie du développement logiciel.\n\n\n### 1. Des équipes enfin alignées\n\n\nLe MLOps supprime les silos entre Data Scientists, développeurs et ingénieurs Ops. En partageant les mêmes pipelines et le même code source, chacun visualise les mêmes métriques et parle le même langage. Les modèles passent de la R&D à la production sans rupture ni perte d’information.\n\n\n### 2. Un passage en production sans friction\n\n\nGrâce à l’automatisation CI/CD, les étapes d’entraînement, de test et de déploiement s’enchaînent sans intervention manuelle. Ce qui prenait des semaines se fait en quelques heures, avec des workflows reproductibles et contrôlés via des plateformes intégrées comme GitLab.\n\n\n### 3. Des modèles traçables et reproductibles\n\n\nChaque version de modèle, de jeu de données et de code est archivée. En cas de dérive, il est possible de rejouer une expérience, d’identifier la cause ou de restaurer une version stable. Cette traçabilité transforme le machine learning en processus vérifiable et durable.\n\n\n### 4. Une supervision continue en production\n\n\nLe MLOps ne s’arrête pas au déploiement. Les performances sont surveillées en continu pour détecter les dérives. Des outils comme Prometheus ou Grafana peuvent être intégrés à GitLab afin d’alerter les équipes ou déclencher un réentraînement automatique.\n\n\n### 5. Une gouvernance intégrée par conception\n\n\nLe respect des exigences de sécurité, de conformité et d’auditabilité fait partie du pipeline. Documentation automatique, contrôle des accès et journaux d’audit garantissent la transparence et la conformité réglementaire sans effort supplémentaire.\n\n\n## Principes et bonnes pratiques du MLOps\n\n\nLe MLOps ne se limite pas à des concepts. C’est aussi un ensemble de pratiques précises qui transforment un modèle expérimental en un service fiable et durable. Ces pratiques couvrent toute la chaîne logicielle : développement, déploiement, suivi et gouvernance.\n\n\n### Automatisation des workflows (CI/CD/CT)\n\n\nUn projet de machine learning classique enchaîne plusieurs étapes répétitives : \n\n\n1. Préparation des données\n\n2. Entraînement\n\n3. Tests\n\n4. Packaging\n\n5. Déploiement\n\n\nRéalisées manuellement, elles s’avèrent lentes et fragiles. L’automatisation transforme ce parcours en une chaîne continue et prévisible.\n\n\nAvec des **[pipelines CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/cicd-pipeline/ \"Qu'est-ce qu'un pipeline CI/CD ?\")**, chaque modification de code ou de données déclenche automatiquement les étapes nécessaires : entraînement, validation, déploiement. Les modèles passent en production plus vite, avec moins d’erreurs.\n\n\n**[GitLab CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/ \"Qu'est-ce que le CI/CD ?\")**, déjà largement adopté dans le développement logiciel, constitue un socle naturel pour orchestrer ces pipelines MLOps.\n\n\n**Le CT (Continuous Training)** complète le CI/CD en automatisant le réentraînement des modèles. Dès qu'une dérive est détectée ou qu'un seuil de performance est franchi, un nouveau cycle d'entraînement peut être déclenché automatiquement. Cette pratique maintient les modèles alignés avec l'évolution des données sans intervention manuelle.\n\n\n**Exemple** : ce fichier YAML minimaliste illustre un pipeline ML typique orchestré sur GitLab CI/CD :\n\n\n* Ingestion et préparation des données,\n\n* Entraînement et sauvegarde du modèle,\n\n* Tests et évaluation,\n\n* Déploiement automatisé en production.\n\n\n```yaml\n\nimage: python:3.9\n\n\nbefore_script: \n  - pip install --no-cache-dir -r requirements.txt \n\nstages:\n  - prepare\n  - train\n  - test\n  - deploy\n\nprepare_data:\n  stage: prepare\n  script:\n    - python scripts/prepare_data.py\n  artifacts:\n    paths:\n      - data/processed/\n    expire_in: 7 days\n\ntrain_model:\n  stage: train\n  script:\n    - python scripts/train.py --data data/processed/\n  artifacts:\n    paths:\n      - models/model.pkl\n    expire_in: 30 days\n\ntest_model:\n  stage: test\n  script:\n    - pytest tests/\n    - python scripts/evaluate.py models/model.pkl\n\ndeploy_model:\n  stage: deploy\n  script:\n    - bash scripts/deploy.sh models/model.pkl\n  when: on_success\n```\n\n\n### Gestion des versions (données, modèles, code)\n\n\nSans gestion rigoureuse des versions, il est impossible de savoir sur quelles données un modèle a été entraîné ou de revenir à un état antérieur en cas de dérive.\n\n\nLe MLOps généralise le **versionnage systématique**. Chaque jeu de données (dataset), chaque modèle et chaque pipeline est archivé et relié au code correspondant. GitLab, en s’appuyant sur [Git](https://about.gitlab.com/fr-fr/blog/2024/10/08/what-is-git/ \"Qu'est-ce que Git ?\"), apporte cette [logique de gestion des versions](https://about.gitlab.com/fr-fr/topics/version-control/ \"Qu'est-ce que le contrôle de version ?\") nativement. Étendue aux workflows ML, elle garantit une traçabilité complète de bout en bout.\n\n\nNote : le [registre de modèles de GitLab](https://docs.gitlab.com/user/project/ml/model_registry/) permet de versionner et de cataloguer les modèles ML aux côtés du code source, créant ainsi une source unique de vérité pour l'ensemble du projet.\n\n\n### Validation et qualité des données et modèles\n\n\nUn modèle performant dans un environnement de test peut échouer en production. Pour éviter ce décalage, le MLOps introduit des validations à plusieurs niveaux.\n\n\n* **Qualité des données** : détection des valeurs aberrantes, cohérence entre jeux d’entraînement et de validation, suivi de la complétude.\n\n* **Robustesse des modèles** : tests de performance, vérification des biais, évaluation sur des scénarios métiers représentatifs.\n\n\nCes contrôles intégrés dans le pipeline réduisent le risque de déployer des modèles fragiles ou biaisés.\n\n\n### Monitoring et détection de la dérive\n\n\nUn modèle n’est jamais figé. Les données évoluent, les comportements changent, et ses performances se dégradent avec le temps. \n\n\nLe MLOps intègre un **monitoring continu** des métriques techniques et métiers. Il détecte les dérives statistiques, génère des alertes et peut même déclencher un réentraînement automatisé. Cette boucle prolonge la durée de vie des modèles et maintient leur alignement avec les besoins opérationnels.\n\n\n### Ingénierie des données\n\n\nBeaucoup de projets échouent non pas à cause des modèles, mais à cause de **données instables ou mal structurées**. C’est pourquoi l’ingénierie des données est une composante essentielle du MLOps.\n\n\nElle repose sur plusieurs pratiques : définir des contrats de données clairs entre ceux qui produisent et ceux qui utilisent les données, surveiller en continu la qualité et la disponibilité des flux de données, et choisir le bon mode de traitement - batch pour les volumes massifs, streaming pour le temps réel. Ces fondations garantissent que les modèles s’appuient sur des données fiables et stables.\n\n\nUn composant clé de cette démarche est le Feature Store, qui centralise et versionne les caractéristiques (features) utilisées par les modèles. Il garantit la cohérence entre l'entraînement et la production, évite la duplication et accélère le développement de nouveaux modèles.\n\n\n### LLMOps pour les modèles génératifs\n\n\nAu-delà des modèles traditionnels, les modèles génératifs introduisent des défis inédits : prompts évolutifs, coûts d’inférence élevés, évaluation de la qualité plus complexe.\n\n\nLe **LLMOps** transpose les principes du MLOps à ce contexte. Il inclut la gestion des versions de prompts, l’intégration des retours utilisateurs et le suivi détaillé des coûts d’exécution. Dans certains environnements, une seule application peut générer des coûts d’inférence de plusieurs milliers d’euros par jour : garder la maîtrise de ces dépenses devient un impératif stratégique. \n\n\n## Cycle de vie d’un projet MLOps\n\n\nLe MLOps ne se résume pas à des principes. C’est avant tout une manière d’organiser le cycle de vie d’un projet de machine learning, depuis la préparation des données jusqu’à l’amélioration continue en production. Chaque étape est reliée aux autres et gagne en efficacité grâce à une approche structurée.\n\n\n### Collecte et préparation des données\n\n\nLa donnée est le point de départ de tout projet de machine learning. Pourtant, elle est aussi l’une de ses principales sources de difficulté. Plusieurs études montrent que la préparation des données peut mobiliser entre 50 % et 80 % du temps des Data Scientists, selon la qualité des sources et le degré d’automatisation disponible.\n\n\nLe MLOps formalise ce travail avec des pipelines d’ingestion automatisés, des contrats de données entre équipes et des validations systématiques (complétude, cohérence, détection d’anomalies). Ces mécanismes réduisent les erreurs et sécurisent les étapes suivantes.\n\n\nCette base solide optimise les étapes d’entraînement avec les meilleures conditions possibles.\n\n\n### Entraînement des modèles\n\n\nUne fois les données prêtes, l’objectif n’est pas seulement d’obtenir de bonnes métriques mais aussi de garantir la **reproductibilité** des résultats.\n\n\nLe MLOps renforce cette étape avec deux leviers :\n\n\n* le **versionnage systématique** des données, du code et des modèles ;\n\n* l’**automatisation des expériences** via des pipelines.\n\n\nChaque essai est documenté, chaque paramètre enregistré. Les équipes peuvent comparer objectivement les résultats et identifier rapidement les configurations les plus prometteuses.\n\n\n### Mise en production\n\n\nUn modèle performant en environnement de développement n’a pas d’impact tant qu’il n’est pas utilisé. La mise en production est donc une étape clé, mais souvent la plus délicate.\n\n\nLe MLOps simplifie ce passage grâce à l’automatisation : packaging standardisé, tests intégrés, déploiement reproductible. Là où une mise en production pouvait nécessiter plusieurs semaines de coordination, elle peut désormais être réalisée en quelques jours. \n\n\nLà encore, **GitLab CI/CD** offre une base solide pour orchestrer ces déploiements continus, en s’appuyant sur des outils déjà familiers aux [équipes DevOps](https://about.gitlab.com/fr-fr/topics/devops/build-a-devops-team/ \"Equipes DevOps\").\n\n\n### Suivi des performances et amélioration continue\n\n\nUne fois en ligne, le modèle est confronté à des données vivantes. Ses performances évoluent, parfois à la baisse. \n\n\nCertaines équipes dépassent le simple monitoring en implémentant un **réentraînement automatisé** dès qu’un seuil de dégradation des performances est franchi. Cette boucle d’amélioration continue assure que le modèle reste pertinent et aligné avec les besoins du métier.\n\n\n## Les rôles dans un projet MLOps\n\n\nUn projet MLOps ne repose pas sur une seule équipe mais sur la complémentarité de plusieurs profils. Chacun joue un rôle clé dans la conception, le déploiement et la maintenance des modèles.\n\n\n### Data Scientists\n\n\nLes Data Scientists restent les architectes des modèles. Leur rôle est d’**explorer les données**, de concevoir les algorithmes et de tester différentes approches. Ils définissent aussi les métriques qui guideront l’évaluation des performances.\n\n\nDans une démarche MLOps, leur mission évolue. Les notebooks deviennent reproductibles, les scripts s’intègrent dans des pipelines, et les modèles sont versionnés. Ce changement de cadre évite que leurs travaux ne restent bloqués au stade de prototype et facilite leur passage en production.\n\n\n### Data Engineers et équipes DevOps\n\n\nLes modèles n’ont de valeur que s’ils peuvent être exploités. Les Data Engineers et les équipes DevOps jouent un rôle central pour transformer les expérimentations en solutions robustes.\n\n\n* Les **Data Engineers** construisent et maintiennent les pipelines d’ingestion, s’assurent de la qualité et de la disponibilité des flux de données, et posent les fondations de la gouvernance des données.\n\n* Les **équipes DevOps** orchestrent les déploiements, automatisent les tests et surveillent les environnements. Elles appliquent au machine learning les pratiques qui ont déjà révolutionné le développement logiciel : le CI/CD, le monitoring, la gestion des accès.\n\n\nAvec des plateformes comme **GitLab**, ces équipes disposent d’outils déjà éprouvés pour intégrer leurs workflows MLOps sans multiplier les outils et plateformes.\n\n\n### Coordination avec les équipes métiers\n\n\nUn modèle ne se juge pas seulement à la précision de ses prédictions. Il doit aussi générer un impact visible pour l’organisation. C’est là que les équipes métiers entrent en jeu.\n\n\nElles définissent les **indicateurs clés de succès**, apportent leur expertise terrain et valident la pertinence des modèles dans des contextes concrets. Dans une démarche MLOps, cette collaboration devient permanente plutôt que ponctuelle. Les retours alimentent l’évaluation, influencent les priorités et guident les décisions de réentraînement.\n\n\nSans cette boucle de validation, même un modèle techniquement performant peut manquer sa cible et échouer à apporter de la valeur réelle.\n\n\n## Quelles sont les erreurs fréquentes à éviter ?\n\n\nMême avec une démarche MLOps structurée, certains écueils reviennent régulièrement. Ils ralentissent les projets et compromettent leur valeur en production.\n\n\n### Trop d’outils sans cadre clair\n\n\nUtiliser des outils spécialisés peut sembler une bonne idée : un pour l’ingestion, un autre pour l’entraînement, un troisième pour le monitoring, etc. Mais à mesure que la pile technologique s’étoffe, la complexité explose. Les coûts augmentent et la visibilité se réduit.\n\n\nLe MLOps repose au contraire sur une **vision unifiée**. Les pipelines doivent s’appuyer sur des briques cohérentes, idéalement regroupées au sein de plateformes intégrées comme **GitLab**, qui limitent la fragmentation et assurent une traçabilité de bout en bout.\n\n\n### Absence de métriques métiers\n\n\nUn modèle peut obtenir de très bons scores techniques tout en restant inutile pour l’organisation. L’absence d’indicateurs métiers conduit à déployer des modèles performants en apparence, mais **déconnectés des besoins réels**. Le suivi des métriques business (taux de fraude détecté, satisfaction client, temps de traitement gagné) doit compléter les métriques classiques du machine learning.\n\n\n### Données instables et dette technique\n\n\nSans pipelines de données robustes, les modèles héritent de jeux instables ou non représentatifs. À court terme, cela crée des résultats imprévisibles. À long terme, la multiplication des correctifs **génère une dette technique** qui alourdit chaque évolution. Le MLOps impose des pratiques d’ingénierie des données et une supervision continue pour maintenir des flux de données fiables et éviter cet effet boule de neige.\n\n\n## MLOps vs DevOps : quelles différences ?\n\n\nLe MLOps s’inspire directement de l’approche DevOps. Les deux disciplines partagent une même philosophie : rapprocher le développement et les opérations, réduire les délais et fiabiliser les déploiements grâce à l’automatisation. Mais leurs applications divergent dès que l’on touche aux modèles de machine learning.\n\n\n### Points communs\n\n\nLes deux approches reposent sur la même boîte à outils : **pipelines CI/CD, monitoring et gestion des versions**. Dans les deux cas, le but reste identique : **livrer rapidement des artefacts fiables en production.**\n\n\n### Ce qui les différencie\n\n\nLa différence fondamentale vient de la **nature des artefacts**. En DevOps, nous déployons des applications statiques. En MLOps, nous déployons des **modèles issus de données mouvantes**.\n\n\nCette spécificité entraîne cinq conséquences majeures :\n\n\n* nécessité de **versionner des données et des modèles**, pas seulement le code ;\n\n* intégration de **validations métiers** en plus des tests techniques ;\n\n* **surveillance continue des performances**, car un modèle se dégrade dans le temps ;\n\n* **nature expérimentale** : le même code peut produire des résultats différents selon les données et les paramètres utilisés, nécessitant un tracking systématique de chaque expérience ;\n\n* **optimisation itérative des hyperparamètres** (learning rate, architecture, etc.) qui doivent être explorés, comparés et versionnés pour identifier la meilleure configuration.\n\n\n### La place du MLOps par rapport à DataOps et ModelOps\n\n\nLe MLOps ne vit pas en vase clos. Il se situe à la croisée de deux autres disciplines : le **DataOps**, centré sur la qualité et la gouvernance des données, et le **ModelOps**, focalisé sur la gestion et le déploiement des modèles.\n\n\nEn combinant ces deux dimensions, le MLOps prend en charge **l’ensemble du cycle : de la fiabilité des données jusqu’à l’industrialisation des modèles.**\n\n\n## Tendances à suivre\n\n\nLe MLOps évolue rapidement, porté par l’industrialisation de l’IA et l’émergence de nouvelles contraintes techniques et réglementaires. Plusieurs tendances structurent déjà les pratiques des prochaines années.\n\n\n### Serverless MLOps et MLOps distribué\n\n\nL’adoption croissante du **serverless** simplifie l’exécution des pipelines ML : les ressources s’adaptent automatiquement à la charge, réduisant coûts et complexité. Parallèlement, le **MLOps distribué à la périphérie (edge)** prend de l’ampleur, notamment dans l’IoT et les applications embarquées. Les modèles s’exécutent directement au plus près des données, avec moins de latence et plus de réactivité.\n\n\n### Nouvelles exigences de gouvernance et de régulation\n\n\nAvec l’**[AI Act européen](https://www.europarl.europa.eu/topics/fr/article/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle)** entré en vigueur en 2024, la conformité devient un enjeu stratégique. Les organisations doivent prouver la traçabilité, l’explicabilité et la robustesse de leurs modèles. Le MLOps devient un levier essentiel pour intégrer dès aujourd’hui ces obligations, plutôt que de subir des blocages lors d’un audit ou d’un lancement produit.\n\n\n## Ressources et outils pratiques\n\n\nLe MLOps ne s’arrête pas aux concepts. Il prend forme dans des workflows, des métriques et des règles de gouvernance que les équipes peuvent mettre en œuvre dans leurs projets.\n\n\n### Checklist pour lancer un pipeline MLOps\n\n\nMettre en place un pipeline MLOps ne s’improvise pas. Voici une checklist pour démarrer dans de bonnes conditions :\n\n\n* Définir les objectifs métiers et les indicateurs clés de performance (KPI) ;\n\n* Préparer des pipelines de données avec des règles de validation automatisées ;\n\n* Versionner le code, les données et les modèles ;\n\n* Intégrer entraînement, tests et déploiement dans une chaîne CI/CD ;\n\n* Prévoir un monitoring continu des performances et de la dérive ;\n\n* Documenter et suivre chaque étape pour la gouvernance et la conformité.\n\n\n### Exemples de métriques à suivre en production\n\n\nUn modèle ne peut être piloté sans indicateurs. Les métriques à surveiller couvrent à la fois les aspects techniques et métiers :\n\n\n* **Aspects techniques** : précision, rappel, F1-score, latence, taux d’erreur ;\n\n* **Aspects métiers** : taux de fraude détectée, réduction des coûts opérationnels, satisfaction client ;\n\n* **Aspects opérationnels** : consommation de ressources, coût par prédiction, empreinte énergétique.\n\n\nLe suivi de ces métriques permet d’anticiper la dérive, d’ajuster les modèles et de prouver leur valeur ajoutée.\n\n\n## Conclusion : l’importance du MLOps pour industrialiser l’IA\n\n\nDe nombreux projets de machine learning échouent non pas à cause des modèles eux-mêmes, mais parce qu’ils ne franchissent pas le cap de la production. Trop souvent, ils restent confinés aux notebooks, difficiles à maintenir et incapables de s’adapter à des données changeantes. Le MLOps est né pour combler cet écart.\n\n\nEn automatisant les étapes critiques, en assurant la traçabilité des données et des modèles et en intégrant un suivi continu, il transforme des expérimentations isolées en **actifs durables**. Il ne s’agit plus seulement de tester une idée, mais de bâtir un système capable de créer de la valeur au fil du temps.\n\n\nL’adoption du MLOps n'est pas qu'une approche technique : c’est un **levier stratégique**. Il accélère le passage de l’expérimentation au déploiement, réduit les coûts d’itération et donne aux métiers la confiance nécessaire pour utiliser l’IA à grande échelle.\n\n\nPour aller plus loin, les organisations ont besoin d’outils qui favorisent cette approche intégrée. Des plateformes comme **GitLab**, déjà au cœur des pratiques DevOps, offrent une base solide pour orchestrer les pipelines, gérer les versions et rapprocher les équipes. Le MLOps devient alors non seulement une méthode, mais une infrastructure de confiance pour industrialiser l’intelligence artificielle.\n\n\n## GitLab, un socle naturel pour le MLOps\n\n\nMettre en œuvre une démarche MLOps ne consiste pas à accumuler des outils, mais à créer une chaîne cohérente reliant développement, données et production. GitLab offre précisément cette continuité : un environnement unique où les équipes peuvent versionner le code, orchestrer les pipelines CI/CD, monitorer les modèles et documenter chaque étape du cycle de développement logiciel. En intégrant les pratiques MLOps dans une plateforme déjà familière aux équipes DevOps, les organisations évitent la complexité d’une infrastructure fragmentée et accélèrent la transformation de leurs projets de machine learning en solutions opérationnelles.\n\n\n## FAQ sur le MLOps\n\n\n### Quelle est la différence entre MLOps et DevOps ?\n\n\nLe DevOps s’applique au développement logiciel classique, où l’artefact final est une application statique. Le MLOps reprend cette logique d’automatisation et de collaboration, mais l’adapte aux spécificités du machine learning. La différence majeure : un modèle n’est pas seulement du code, c’est aussi des données qui évoluent dans le temps. Le MLOps ajoute donc le versionnage des jeux de données (datasets) et des modèles, la validation métier et le suivi continu des performances.\n\n\n### Quels outils utiliser pour mettre en place le MLOps ?\n\n\nUn écosystème varié existe : plateformes de CI/CD, solutions de monitoring, outils de versioning de données ou de gestion de modèles. L’enjeu est moins d’accumuler des briques que d’assurer leur intégration. Des plateformes comme GitLab, déjà adoptées pour le DevOps et le DevSecOps, offrent une base unifiée qui facilite l’automatisation, la collaboration et la traçabilité dans un cadre MLOps.\n\n\n### Comment gérer la dérive d’un modèle en production ?\n\n\nLa dérive survient lorsque les données en production ne ressemblent plus à celles utilisées pour l’entraînement, entraînant une baisse de performance. Le MLOps prévoit un monitoring continu des métriques, des alertes en cas d’écart et parfois des mécanismes de réentraînement automatique. La clé est de définir dès le départ les seuils critiques et les métriques métiers à surveiller.\n\n\n### Comment mesurer le succès d’une démarche MLOps ?\n\n\nLe succès ne se limite pas aux performances techniques des modèles. Il se mesure aussi par :\n\n\n* La **réduction du temps** nécessaire pour passer de l’expérimentation à la production ;\n\n* La **stabilité et la traçabilité** des modèles déployés ;\n\n* L’**impact métier réel**, via des indicateurs comme le gain de productivité, la baisse des coûts ou l’amélioration de l’expérience client.\n\n\nUne démarche MLOps réussie combine donc efficacité opérationnelle et création de valeur mesurable.\n\n\n> **[&rarr; Essayez GitLab Ultimate et GitLab Duo Enterprise gratuitement.](https://about.gitlab.com/fr-fr/free-trial/devsecops/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr)**\n",[22],"AI/ML","https://res.cloudinary.com/about-gitlab-com/image/upload/v1762517473/wo6vgpvabalmnzqgzulh.jpg","yml",{},true,"/fr-fr/blog/what-is-mlops",{"config":29,"title":30,"ogTitle":30,"description":31,"ogDescription":31,"ogImage":23},{"noIndex":11},"MLOps : de quoi s’agit-il et quels sont ses enjeux ?","Guide complet MLOps : comment il rapproche les équipes, automatise les workflows, assure la reproductibilité, la gouvernance et la conformité.","fr-fr/blog/what-is-mlops",[34],"aiml","nTJ4e4zXYXzfF2yArPsxPijEwqC6A2o6BjdEhtKN5Go",{"data":37},{"logo":38,"freeTrial":43,"sales":48,"login":53,"items":58,"search":368,"minimal":403,"duo":422,"pricingDeployment":432},{"config":39},{"href":40,"dataGaName":41,"dataGaLocation":42},"/fr-fr/","gitlab logo","header",{"text":44,"config":45},"Commencer un essai gratuit",{"href":46,"dataGaName":47,"dataGaLocation":42},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/fr-fr&glm_content=default-saas-trial/","free trial",{"text":49,"config":50},"Contacter l'équipe commerciale",{"href":51,"dataGaName":52,"dataGaLocation":42},"/fr-fr/sales/","sales",{"text":54,"config":55},"Connexion",{"href":56,"dataGaName":57,"dataGaLocation":42},"https://gitlab.com/users/sign_in/","sign in",[59,86,183,188,289,349],{"text":60,"config":61,"cards":63},"Plateforme",{"dataNavLevelOne":62},"platform",[64,70,78],{"title":60,"description":65,"link":66},"La plateforme d'orchestration intelligente pour le DevSecOps",{"text":67,"config":68},"Découvrir notre plateforme",{"href":69,"dataGaName":62,"dataGaLocation":42},"/fr-fr/platform/",{"title":71,"description":72,"link":73},"GitLab Duo Agent Platform","L'IA agentique pour l'ensemble du cycle de développement logiciel",{"text":74,"config":75},"Découvrir GitLab Duo",{"href":76,"dataGaName":77,"dataGaLocation":42},"/fr-fr/gitlab-duo-agent-platform/","gitlab duo agent platform",{"title":79,"description":80,"link":81},"Choisir GitLab","Découvrez les principales raisons pour lesquelles les entreprises choisissent GitLab",{"text":82,"config":83},"En savoir plus",{"href":84,"dataGaName":85,"dataGaLocation":42},"/fr-fr/why-gitlab/","why gitlab",{"text":87,"left":26,"config":88,"link":90,"lists":94,"footer":165},"Produit",{"dataNavLevelOne":89},"solutions",{"text":91,"config":92},"Voir toutes les solutions",{"href":93,"dataGaName":89,"dataGaLocation":42},"/fr-fr/solutions/",[95,120,143],{"title":96,"description":97,"link":98,"items":103},"Automatisation","CI/CD et automatisation pour accélérer le déploiement",{"config":99},{"icon":100,"href":101,"dataGaName":102,"dataGaLocation":42},"AutomatedCodeAlt","/fr-fr/solutions/delivery-automation/","automated software delivery",[104,108,111,116],{"text":105,"config":106},"CI/CD",{"href":107,"dataGaLocation":42,"dataGaName":105},"/fr-fr/solutions/continuous-integration/",{"text":71,"config":109},{"href":76,"dataGaLocation":42,"dataGaName":110},"gitlab duo agent platform - product menu",{"text":112,"config":113},"Gestion du code source",{"href":114,"dataGaLocation":42,"dataGaName":115},"/fr-fr/solutions/source-code-management/","Source Code Management",{"text":117,"config":118},"Livraison de logiciels automatisée",{"href":101,"dataGaLocation":42,"dataGaName":119},"Automated software delivery",{"title":121,"description":122,"link":123,"items":128},"Sécurité","Livrez du code plus rapidement sans compromettre la sécurité",{"config":124},{"href":125,"dataGaName":126,"dataGaLocation":42,"icon":127},"/fr-fr/solutions/application-security-testing/","security and compliance","ShieldCheckLight",[129,133,138],{"text":130,"config":131},"Tests de sécurité des applications",{"href":125,"dataGaName":132,"dataGaLocation":42},"Application security testing",{"text":134,"config":135},"Sécurité de la chaîne d'approvisionnement logicielle",{"href":136,"dataGaLocation":42,"dataGaName":137},"/fr-fr/solutions/supply-chain/","Software supply chain security",{"text":139,"config":140},"Conformité logicielle",{"href":141,"dataGaName":142,"dataGaLocation":42},"/fr-fr/solutions/software-compliance/","Software Compliance",{"title":144,"link":145,"items":150},"Mesures",{"config":146},{"icon":147,"href":148,"dataGaName":149,"dataGaLocation":42},"DigitalTransformation","/fr-fr/solutions/visibility-measurement/","visibility and measurement",[151,155,160],{"text":152,"config":153},"Visibilité et mesures",{"href":148,"dataGaLocation":42,"dataGaName":154},"Visibility and Measurement",{"text":156,"config":157},"Gestion de la chaîne de valeur",{"href":158,"dataGaLocation":42,"dataGaName":159},"/fr-fr/solutions/value-stream-management/","Value Stream Management",{"text":161,"config":162},"Données d'analyse et informations clés",{"href":163,"dataGaLocation":42,"dataGaName":164},"/fr-fr/solutions/analytics-and-insights/","Analytics and insights",{"title":166,"items":167},"GitLab pour",[168,173,178],{"text":169,"config":170},"Entreprises",{"href":171,"dataGaLocation":42,"dataGaName":172},"/fr-fr/enterprise/","enterprise",{"text":174,"config":175},"PME",{"href":176,"dataGaLocation":42,"dataGaName":177},"/fr-fr/small-business/","small business",{"text":179,"config":180},"Secteur public",{"href":181,"dataGaLocation":42,"dataGaName":182},"/fr-fr/solutions/public-sector/","public sector",{"text":184,"config":185},"Tarifs",{"href":186,"dataGaName":187,"dataGaLocation":42,"dataNavLevelOne":187},"/fr-fr/pricing/","pricing",{"text":189,"config":190,"link":192,"lists":196,"feature":276},"Ressources",{"dataNavLevelOne":191},"resources",{"text":193,"config":194},"Afficher toutes les ressources",{"href":195,"dataGaName":191,"dataGaLocation":42},"/fr-fr/resources/",[197,230,248],{"title":198,"items":199},"Premiers pas",[200,205,210,215,220,225],{"text":201,"config":202},"Installation",{"href":203,"dataGaName":204,"dataGaLocation":42},"/fr-fr/install/","install",{"text":206,"config":207},"Guides de démarrage",{"href":208,"dataGaName":209,"dataGaLocation":42},"/fr-fr/get-started/","quick setup checklists",{"text":211,"config":212},"Apprentissage",{"href":213,"dataGaLocation":42,"dataGaName":214},"https://university.gitlab.com/","learn",{"text":216,"config":217},"Documentation sur le produit",{"href":218,"dataGaName":219,"dataGaLocation":42},"https://docs.gitlab.com/","product documentation",{"text":221,"config":222},"Vidéos sur les bonnes pratiques",{"href":223,"dataGaName":224,"dataGaLocation":42},"/fr-fr/getting-started-videos/","best practice videos",{"text":226,"config":227},"Intégrations",{"href":228,"dataGaName":229,"dataGaLocation":42},"/fr-fr/integrations/","integrations",{"title":231,"items":232},"Découvrir",[233,238,243],{"text":234,"config":235},"Témoignages clients",{"href":236,"dataGaName":237,"dataGaLocation":42},"/fr-fr/customers/","customer success stories",{"text":239,"config":240},"Blog",{"href":241,"dataGaName":242,"dataGaLocation":42},"/fr-fr/blog/","blog",{"text":244,"config":245},"Travail à distance",{"href":246,"dataGaName":247,"dataGaLocation":42},"https://handbook.gitlab.com/handbook/company/culture/all-remote/","remote",{"title":249,"items":250},"Connecter",[251,256,261,266,271],{"text":252,"config":253},"Services GitLab",{"href":254,"dataGaName":255,"dataGaLocation":42},"/fr-fr/services/","services",{"text":257,"config":258},"Communauté",{"href":259,"dataGaName":260,"dataGaLocation":42},"/community/","community",{"text":262,"config":263},"Forum",{"href":264,"dataGaName":265,"dataGaLocation":42},"https://forum.gitlab.com/","forum",{"text":267,"config":268},"Événements",{"href":269,"dataGaName":270,"dataGaLocation":42},"/events/","events",{"text":272,"config":273},"Partenaires",{"href":274,"dataGaName":275,"dataGaLocation":42},"/fr-fr/partners/","partners",{"backgroundColor":277,"textColor":278,"text":279,"image":280,"link":284},"#2f2a6b","#fff","L'avenir du développement logiciel. Tendances et perspectives.",{"altText":281,"config":282},"carte promo The Source",{"src":283},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758208064/dzl0dbift9xdizyelkk4.svg",{"text":285,"config":286},"Lire les articles les plus récents",{"href":287,"dataGaName":288,"dataGaLocation":42},"/fr-fr/the-source/","the source",{"text":290,"config":291,"lists":293},"Société",{"dataNavLevelOne":292},"company",[294],{"items":295},[296,301,307,309,314,319,324,329,334,339,344],{"text":297,"config":298},"À propos",{"href":299,"dataGaName":300,"dataGaLocation":42},"/fr-fr/company/","about",{"text":302,"config":303,"footerGa":306},"Carrières",{"href":304,"dataGaName":305,"dataGaLocation":42},"/jobs/","jobs",{"dataGaName":305},{"text":267,"config":308},{"href":269,"dataGaName":270,"dataGaLocation":42},{"text":310,"config":311},"Leadership",{"href":312,"dataGaName":313,"dataGaLocation":42},"/company/team/e-group/","leadership",{"text":315,"config":316},"Équipe",{"href":317,"dataGaName":318,"dataGaLocation":42},"/company/team/","team",{"text":320,"config":321},"Manuel",{"href":322,"dataGaName":323,"dataGaLocation":42},"https://handbook.gitlab.com/","handbook",{"text":325,"config":326},"Relations avec les investisseurs",{"href":327,"dataGaName":328,"dataGaLocation":42},"https://ir.gitlab.com/","investor relations",{"text":330,"config":331},"Centre de confiance",{"href":332,"dataGaName":333,"dataGaLocation":42},"/fr-fr/security/","trust center",{"text":335,"config":336},"Centre pour la transparence de l'IA",{"href":337,"dataGaName":338,"dataGaLocation":42},"/fr-fr/ai-transparency-center/","ai transparency center",{"text":340,"config":341},"Newsletter",{"href":342,"dataGaName":343,"dataGaLocation":42},"/company/contact/#contact-forms","newsletter",{"text":345,"config":346},"Presse",{"href":347,"dataGaName":348,"dataGaLocation":42},"/press/","press",{"text":350,"config":351,"lists":352},"Nous contacter",{"dataNavLevelOne":292},[353],{"items":354},[355,358,363],{"text":49,"config":356},{"href":51,"dataGaName":357,"dataGaLocation":42},"talk to sales",{"text":359,"config":360},"Portail d’assistance",{"href":361,"dataGaName":362,"dataGaLocation":42},"https://support.gitlab.com","support portal",{"text":364,"config":365},"Portail clients GitLab",{"href":366,"dataGaName":367,"dataGaLocation":42},"https://customers.gitlab.com/customers/sign_in/","customer portal",{"close":369,"login":370,"suggestions":377},"Fermer",{"text":371,"link":372},"Pour rechercher des dépôts et des projets, connectez-vous à",{"text":373,"config":374},"gitlab.com",{"href":56,"dataGaName":375,"dataGaLocation":376},"search login","search",{"text":378,"default":379},"Suggestions",[380,382,387,389,394,399],{"text":71,"config":381},{"href":76,"dataGaName":71,"dataGaLocation":376},{"text":383,"config":384},"Suggestions de code (IA)",{"href":385,"dataGaName":386,"dataGaLocation":376},"/fr-fr/solutions/code-suggestions/","Code Suggestions (AI)",{"text":105,"config":388},{"href":107,"dataGaName":105,"dataGaLocation":376},{"text":390,"config":391},"GitLab sur AWS",{"href":392,"dataGaName":393,"dataGaLocation":376},"/fr-fr/partners/technology-partners/aws/","GitLab on AWS",{"text":395,"config":396},"GitLab sur Google Cloud ",{"href":397,"dataGaName":398,"dataGaLocation":376},"/fr-fr/partners/technology-partners/google-cloud-platform/","GitLab on Google Cloud",{"text":400,"config":401},"Pourquoi utiliser GitLab ?",{"href":84,"dataGaName":402,"dataGaLocation":376},"Why GitLab?",{"freeTrial":404,"mobileIcon":409,"desktopIcon":414,"secondaryButton":417},{"text":405,"config":406},"Commencer votre essai gratuit",{"href":407,"dataGaName":47,"dataGaLocation":408},"https://gitlab.com/-/trials/new/","nav",{"altText":410,"config":411},"Icône GitLab",{"src":412,"dataGaName":413,"dataGaLocation":408},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203874/jypbw1jx72aexsoohd7x.svg","gitlab icon",{"altText":410,"config":415},{"src":416,"dataGaName":413,"dataGaLocation":408},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203875/gs4c8p8opsgvflgkswz9.svg",{"text":418,"config":419},"Commencer",{"href":420,"dataGaName":421,"dataGaLocation":408},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/fr-fr/compare/gitlab-vs-github/","get started",{"freeTrial":423,"mobileIcon":428,"desktopIcon":430},{"text":424,"config":425},"En savoir plus sur GitLab Duo",{"href":426,"dataGaName":427,"dataGaLocation":408},"/fr-fr/gitlab-duo/","gitlab duo",{"altText":410,"config":429},{"src":412,"dataGaName":413,"dataGaLocation":408},{"altText":410,"config":431},{"src":416,"dataGaName":413,"dataGaLocation":408},{"freeTrial":433,"mobileIcon":438,"desktopIcon":440},{"text":434,"config":435},"Retour aux tarifs",{"href":186,"dataGaName":436,"dataGaLocation":408,"icon":437},"back to pricing","GoBack",{"altText":410,"config":439},{"src":412,"dataGaName":413,"dataGaLocation":408},{"altText":410,"config":441},{"src":416,"dataGaName":413,"dataGaLocation":408},{"title":443,"button":444,"config":449},"Découvrez comment l'IA agentique transforme la livraison logicielle",{"text":445,"config":446},"Regarder GitLab Transcend maintenant",{"href":447,"dataGaName":448,"dataGaLocation":42},"/fr-fr/events/transcend/virtual/","transcend event",{"layout":450,"icon":451},"release","AiStar",{"data":453},{"text":454,"source":455,"edit":461,"contribute":466,"config":471,"items":476,"minimal":653},"Git est une marque déposée de Software Freedom Conservancy et notre utilisation de « GitLab » est sous licence",{"text":456,"config":457},"Afficher le code source de la page",{"href":458,"dataGaName":459,"dataGaLocation":460},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/","page source","footer",{"text":462,"config":463},"Modifier cette page",{"href":464,"dataGaName":465,"dataGaLocation":460},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/content/","web ide",{"text":467,"config":468},"Veuillez contribuer",{"href":469,"dataGaName":470,"dataGaLocation":460},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/CONTRIBUTING.md/","please contribute",{"twitter":472,"facebook":473,"youtube":474,"linkedin":475},"https://twitter.com/gitlab","https://www.facebook.com/gitlab","https://www.youtube.com/channel/UCnMGQ8QHMAnVIsI3xJrihhg","https://www.linkedin.com/company/gitlab-com",[477,500,554,586,621],{"title":60,"links":478,"subMenu":483},[479],{"text":480,"config":481},"Plateforme DevSecOps",{"href":69,"dataGaName":482,"dataGaLocation":460},"devsecops platform",[484],{"title":184,"links":485},[486,490,495],{"text":487,"config":488},"Voir les forfaits",{"href":186,"dataGaName":489,"dataGaLocation":460},"view plans",{"text":491,"config":492},"Pourquoi choisir GitLab Premium ?",{"href":493,"dataGaName":494,"dataGaLocation":460},"/fr-fr/pricing/premium/","why premium",{"text":496,"config":497},"Pourquoi choisir GitLab Ultimate ?",{"href":498,"dataGaName":499,"dataGaLocation":460},"/fr-fr/pricing/ultimate/","why ultimate",{"title":501,"links":502},"Solutions",[503,508,511,513,518,523,527,530,533,538,540,542,544,549],{"text":504,"config":505},"Transformation digitale",{"href":506,"dataGaName":507,"dataGaLocation":460},"/fr-fr/topics/digital-transformation/","digital transformation",{"text":509,"config":510},"Sécurité et conformité",{"href":125,"dataGaName":132,"dataGaLocation":460},{"text":117,"config":512},{"href":101,"dataGaName":102,"dataGaLocation":460},{"text":514,"config":515},"Développement agile",{"href":516,"dataGaName":517,"dataGaLocation":460},"/fr-fr/solutions/agile-delivery/","agile delivery",{"text":519,"config":520},"Transformation cloud",{"href":521,"dataGaName":522,"dataGaLocation":460},"/fr-fr/topics/cloud-native/","cloud transformation",{"text":524,"config":525},"SCM",{"href":114,"dataGaName":526,"dataGaLocation":460},"source code management",{"text":105,"config":528},{"href":107,"dataGaName":529,"dataGaLocation":460},"continuous integration & delivery",{"text":156,"config":531},{"href":158,"dataGaName":532,"dataGaLocation":460},"value stream management",{"text":534,"config":535},"GitOps",{"href":536,"dataGaName":537,"dataGaLocation":460},"/fr-fr/solutions/gitops/","gitops",{"text":169,"config":539},{"href":171,"dataGaName":172,"dataGaLocation":460},{"text":174,"config":541},{"href":176,"dataGaName":177,"dataGaLocation":460},{"text":179,"config":543},{"href":181,"dataGaName":182,"dataGaLocation":460},{"text":545,"config":546},"Formation",{"href":547,"dataGaName":548,"dataGaLocation":460},"/fr-fr/solutions/education/","education",{"text":550,"config":551},"Services financiers",{"href":552,"dataGaName":553,"dataGaLocation":460},"/fr-fr/solutions/finance/","financial services",{"title":189,"links":555},[556,558,561,563,566,568,571,574,576,578,580,582,584],{"text":201,"config":557},{"href":203,"dataGaName":204,"dataGaLocation":460},{"text":559,"config":560},"Guides de démarrage rapide",{"href":208,"dataGaName":209,"dataGaLocation":460},{"text":211,"config":562},{"href":213,"dataGaName":214,"dataGaLocation":460},{"text":216,"config":564},{"href":218,"dataGaName":565,"dataGaLocation":460},"docs",{"text":239,"config":567},{"href":241,"dataGaName":242},{"text":569,"config":570},"Histoires de réussite client",{"href":236,"dataGaLocation":460},{"text":572,"config":573},"Histoires de succès client",{"href":236,"dataGaName":237,"dataGaLocation":460},{"text":244,"config":575},{"href":246,"dataGaName":247,"dataGaLocation":460},{"text":252,"config":577},{"href":254,"dataGaName":255,"dataGaLocation":460},{"text":257,"config":579},{"href":259,"dataGaName":260,"dataGaLocation":460},{"text":262,"config":581},{"href":264,"dataGaName":265,"dataGaLocation":460},{"text":267,"config":583},{"href":269,"dataGaName":270,"dataGaLocation":460},{"text":272,"config":585},{"href":274,"dataGaName":275,"dataGaLocation":460},{"title":290,"links":587},[588,590,593,595,597,599,601,605,610,612,614,616],{"text":297,"config":589},{"href":299,"dataGaName":292,"dataGaLocation":460},{"text":591,"config":592},"Emplois",{"href":304,"dataGaName":305,"dataGaLocation":460},{"text":310,"config":594},{"href":312,"dataGaName":313,"dataGaLocation":460},{"text":315,"config":596},{"href":317,"dataGaName":318,"dataGaLocation":460},{"text":320,"config":598},{"href":322,"dataGaName":323,"dataGaLocation":460},{"text":325,"config":600},{"href":327,"dataGaName":328,"dataGaLocation":460},{"text":602,"config":603},"Sustainability",{"href":604,"dataGaName":602,"dataGaLocation":460},"/sustainability/",{"text":606,"config":607},"Diversité, inclusion et appartenance (DIB)",{"href":608,"dataGaName":609,"dataGaLocation":460},"/fr-fr/diversity-inclusion-belonging/","Diversity, inclusion and belonging",{"text":330,"config":611},{"href":332,"dataGaName":333,"dataGaLocation":460},{"text":340,"config":613},{"href":342,"dataGaName":343,"dataGaLocation":460},{"text":345,"config":615},{"href":347,"dataGaName":348,"dataGaLocation":460},{"text":617,"config":618},"Déclaration de transparence sur l'esclavage moderne",{"href":619,"dataGaName":620,"dataGaLocation":460},"https://handbook.gitlab.com/handbook/legal/modern-slavery-act-transparency-statement/","modern slavery transparency statement",{"title":350,"links":622},[623,626,631,633,638,643,648],{"text":624,"config":625},"Échanger avec un expert",{"href":51,"dataGaName":52,"dataGaLocation":460},{"text":627,"config":628},"Aide",{"href":629,"dataGaName":630,"dataGaLocation":460},"/support/","get help",{"text":364,"config":632},{"href":366,"dataGaName":367,"dataGaLocation":460},{"text":634,"config":635},"Statut",{"href":636,"dataGaName":637,"dataGaLocation":460},"https://status.gitlab.com/","status",{"text":639,"config":640},"Conditions d'utilisation",{"href":641,"dataGaName":642},"/terms/","terms of use",{"text":644,"config":645},"Déclaration de confidentialité",{"href":646,"dataGaName":647,"dataGaLocation":460},"/fr-fr/privacy/","privacy statement",{"text":649,"config":650},"Préférences en matière de cookies",{"dataGaName":651,"dataGaLocation":460,"id":652,"isOneTrustButton":26},"cookie preferences","ot-sdk-btn",{"items":654},[655,657,660],{"text":639,"config":656},{"href":641,"dataGaName":642,"dataGaLocation":460},{"text":658,"config":659},"Politique de confidentialité",{"href":646,"dataGaName":647,"dataGaLocation":460},{"text":649,"config":661},{"dataGaName":651,"dataGaLocation":460,"id":652,"isOneTrustButton":26},[663],{"id":664,"title":665,"body":8,"config":666,"content":668,"description":8,"extension":24,"meta":672,"navigation":26,"path":673,"seo":674,"stem":675,"__hash__":676},"blogAuthors/en-us/blog/authors/gitlab-france-team.yml","Gitlab France Team",{"template":667},"BlogAuthor",{"name":18,"config":669},{"headshot":670,"ctfId":671},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1749659488/Blog/Author%20Headshots/gitlab-logo-extra-whitespace.png","1gfblqN0ibYIuWGk7MOTny",{},"/en-us/blog/authors/gitlab-france-team",{},"en-us/blog/authors/gitlab-france-team","Eni-wcJbgxSvctiz4Yjf4UeRk6T6IWt1wK0KuHU907U",[678,689,703],{"content":679,"config":687},{"title":680,"description":681,"authors":682,"date":683,"body":684,"category":9,"tags":685,"heroImage":686},"GitLab Duo Agent Platform : comment réinventer le développement logiciel avec l’IA agentique","Découvrez comment GitLab Duo Agent Platform transforme la collaboration entre équipes de développement et les agents d’IA.\n",[18],"2026-02-24","> *Cet article de blog est un résumé de notre webinaire sur la Collaboration entre agents d’IA et développeurs animé par Lucas Rangeard (Solutions Architect) et Chloé Cartron (Senior Solutions Architect). Pour visionner le replay, [cliquez ici](https://learn.gitlab.com/fr-oct-agentic-ai/duo-ai-fr).* \n\nStructurer un besoin client en ticket, diviser un ticket en sous-tâches assignables, et implémenter la fonctionnalité : trois opérations qui, dans un cycle de développement traditionnel, s'enchaînent de manière séquentielle entraînant un goulot d'étranglement bien connu des [équipes DevOps](https://about.gitlab.com/fr-fr/topics/devops/build-a-devops-team/ \"équipes DevOps\").\n\nGrâce à GitLab Duo Agent Platform, ces trois tâches sont exécutées en parallèle, avec une merge request prête à être revue en quelques minutes. \n\nDécouvrez dans cet article les capacités de GitLab Duo Agent Platform conçue pour transformer la collaboration entre équipes de développement et agents intelligents et apprenez comment mettre en place des flows, de la création d’un ticket au développement d’une application à travers trois cas d’usage.\n\n## GitLab Duo Agent Platform : une orchestration agentique native\n\n[GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/ \"GitLab Duo Agent Platform\") représente une évolution majeure dans notre approche du DevSecOps. En disponibilité générale depuis janvier 2026 pour les clients GitLab Premium et GitLab Ultimate (GitLab.com et GitLab Self-Managed), GitLab Duo Agent Platform permet aux équipes de développement de collaborer avec des agents d’IA sur l'ensemble du cycle de développement logiciel ([SDLC](https://about.gitlab.com/fr-fr/blog/what-is-sdlc/ \"Qu'est-ce que le SDLC ?\")).\n\n> 🎯 Essayez [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr) dès aujourd'hui !\n\n### L’orchestration agentique au coeur du SDLC\n\nNotre approche repose sur trois piliers interconnectés :\n\n* **Nous conservons ce qui fait notre force** : une plateforme unifiée avec un système de données centralisé et des APIs.\n* **Nous ajoutons une couche d'intelligence agentique** : des agents spécialisés travaillant ensemble et de manière autonome. \n* **Nous créons un graphe de connaissances reliant l'ensemble des données entre elles** : votre code, vos tickets, vos déploiements, vos scans de sécurité. Cette interconnexion permet aux agents de comprendre votre contexte complet et de prendre des décisions éclairées rapidement. \n\n### Des agents spécialisés tout au long du SDLC\n\nGitLab Duo Agent Platform ne vise pas à remplacer les équipes de développement, mais à leur fournir des partenaires capables d'exécuter des tâches en parallèle. \n\nLes utilisateurs ont accès à trois types d’agents différents : les [agents par défaut](https://docs.gitlab.com/user/duo_agent_platform/agents/foundational_agents/) comme [Planner](https://docs.gitlab.com/user/duo_agent_platform/agents/foundational_agents/planner/), [Security Analyst](https://docs.gitlab.com/user/duo_agent_platform/agents/foundational_agents/security_analyst_agent/) et [Data Analyst](https://docs.gitlab.com/user/duo_agent_platform/agents/foundational_agents/data_analyst/) pour les tâches courantes de développement, les [agents personnalisables](https://docs.gitlab.com/user/duo_agent_platform/agents/custom/) pour les workflows spécifiques à votre équipe, ainsi que les [agents externes](https://docs.gitlab.com/user/duo_agent_platform/agents/external/) comme Claude Code ou OpenAI Codex. Pour en savoir plus sur les agents, consultez notre article de blog [GitLab Duo Agent Platform : comprendre les agents](https://about.gitlab.com/fr-fr/blog/understanding-agents-foundational-custom-external/).\n\nCes agents partagent un contexte unifié. Ils peuvent accéder aux tickets, au code source, aux [pipelines CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/cicd-pipeline/ \"Qu'est-ce qu'un pipeline CI/CD ?\"), aux merge requests et à l'historique de déploiement, selon les permissions données. \n\n> Chez NatWest, l'intégration des agents d’IA dans le cycle de développement logiciel a permis d'améliorer « la productivité, la vélocité et l'efficacité » des équipes, selon Bal Kang, Engineering Platform Lead. \n\n## Comment l'IA agentique réduit les temps d'attente entre chaque étape ?\n\nDans un cycle de développement traditionnel, les étapes s'enchaînent les unes après les autres. Rédaction des spécifications, découpage en tâches, implémentation, tests, revue de code : chaque phase attend la précédente. Ce modèle séquentiel génère des temps morts et limite la capacité des équipes à traiter plusieurs demandes simultanément.\n\nL'approche agentique change cette dynamique. En déléguant des tâches à des agents autonomes, les équipes de développement peuvent avancer sur plusieurs fronts en parallèle. Pendant qu'un agent implémente une fonctionnalité, un autre structure une nouvelle demande, et un troisième prépare une analyse de sécurité. Le cycle de développement global est raccourci.\n\nL'objectif : permettre aux équipes de développement de déléguer certaines tâches à des agents pendant qu'ils se concentrent sur d'autres tâches à plus forte valeur ajoutée, tout en gardant le contrôle sur les résultats.\n\n## 3 exemples de flows à tester\n\nDécouvrez comment GitLab Duo Agent Platform transforme le quotidien des équipes grâce à ces trois cas d'usage qui peuvent être exécutés simultanément. \n\n### Transformer une idée en ticket structuré\n\nAvec GitLab Duo Agentic Chat, les utilisateurs peuvent générer un ticket complet et personnalisable à partir d'une idée en formulant leur demande en langage naturel à l’aide du modèle IA de leur choix. \n\nCe ticket comprend le titre correspondant au besoin, la user story, les critères d'acceptance, les contraintes techniques, la « definition of done », ainsi que tout autre élément de gestion de projet propre aux équipes : personnes assignées, labels, date de début et date de fin de la tâche, confidentialité du ticket, etc.\n\nL'action proposée est soumise à validation. Une fois approuvé, le ticket apparaît dans le backlog en quelques secondes.\n\n### Diviser un ticket en sous-tâches\n\nUn ticket couvrant plusieurs fonctionnalités peut être divisé automatiquement en sous-tickets distincts. L'agent crée les sous tickets, maintient les références avec le ticket parent, et préserve la cohérence des critères d'acceptance. Ce mécanisme transforme un besoin business global en un ensemble de tâches assignables aux équipes. \n\n### Générer une merge request depuis un ticket\n\nÀ partir d’un ticket décrivant une fonctionnalité à implémenter, l'agent analyse le contexte du projet, comprend l'architecture existante, et génère le code correspondant. Il modifie les fichiers nécessaires, crée une merge request et le pipeline CI/CD se lance automatiquement.\n\nIl est également possible d'assigner GitLab Duo comme relecteur sur une merge request. L'agent analyse les changements, identifie les points d'attention et laisse des commentaires dans la merge request, offrant un premier niveau de revue avant la sollicitation des pairs.\n\n## Une collaboration entre humains et IA\n\nUn aspect distingue GitLab Duo Agent Platform des approches purement automatisées : chaque action proposée par un agent nécessite une validation explicite. L'utilisateur visualise ce que l'agent souhaite exécuter et approuve ou ajuste le travail effectué par l’agent avant d’effectuer une action.\nCette approche répond aux exigences des équipes en matière de gouvernance. L'agent accélère l'exécution, mais les décisions restent sous contrôle humain. Une approche indispensable dans un contexte où la qualité du code et la sécurité ne peuvent être compromises.\n\n## Le catalogue d’IA : un écosystème agentique\n\nAu-delà des agents natifs, GitLab développe un écosystème ouvert : le catalogue d’IA. Ce dernier permet de découvrir, utiliser et partager des agents et des flows développés par GitLab, ainsi que par toute la communauté.\n\nLes options de partage sont flexibles : ouverture à la communauté ou restriction à des usages internes selon les besoins de gouvernance.\n\nCette approche permet d'imaginer un agent expert en migration de bases de données, ou encore un flow d’optimisation de performance tous intégrés nativement dans GitLab. \n\nCes agents et flows s'intègrent à votre interface GitLab et identifient rapidement votre contexte et vos projets.\n\n## Prérequis\n\nPour utiliser GitLab Duo Agent Platform, plusieurs conditions sont requises :\n\n* Disposer de la version 18.8 ou ultérieure de GitLab ou d’un compte GitLab.com.\n* Être abonné à [GitLab Premium](https://about.gitlab.com/fr-fr/pricing/premium/) ou [GitLab Ultimate](https://about.gitlab.com/fr-fr/pricing/ultimate/)\n\nGitLab Duo Agent Platform utilise par défaut les modèles d'IA fournis par GitLab. Une configuration alternative utilisant les modèles des clients est disponible [pour les installations auto hébergées](https://docs.gitlab.com/administration/gitlab_duo_self_hosted/#gitlab-duo-agent-platform). Pour en savoir plus, consultez notre article [IA agentique avec contrôle d'entreprise : GitLab Duo Agent Platform Self-Hosted et BYOM](https://about.gitlab.com/fr-fr/blog/agentic-ai-enterprise-control-self-hosted-duo-agent-platform-and-byom/).\n\n## Perspectives : l'IA agentique au coeur du DevSecOps\n\nGitLab Duo Agent Platform marque une évolution dans l'intégration de l'IA dans le cycle de développement DevSecOps. Il ne s'agit plus uniquement de suggestions de code, mais d'une véritable orchestration agentique où des agents spécialisés prennent en charge des workflows complets.\n\nVous souhaitez en savoir plus sur les flows ? Consultez notre article [Comprendre les flows : workflows multi-agents](https://about.gitlab.com/fr-fr/blog/understanding-flows-multi-agent-workflows/) et découvrez comment utiliser les [flows par défaut](https://docs.gitlab.com/user/duo_agent_platform/flows/foundational_flows/) et les [flows personnalisables](https://docs.gitlab.com/user/duo_agent_platform/flows/custom/).\n\n> 🎯 Essayez [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr) dès aujourd'hui !",[22],"https://res.cloudinary.com/about-gitlab-com/image/upload/v1765809212/noh0mdfn9o94ry9ykura.png",{"featured":11,"template":12,"slug":688},"gitlab-duo-agent-platform-software-development-agentic-ai",{"content":690,"config":701},{"title":691,"description":692,"authors":693,"heroImage":695,"date":696,"body":697,"category":9,"tags":698},"IA agentique avec contrôle d'entreprise : GitLab Duo Agent Platform Self-Hosted et BYOM","Découvrez comment GitLab 18.9 offre aux entreprises des secteurs réglementés une IA agentique gouvernée grâce à GitLab Duo Agent Platform Self-Hosted et à la prise en charge Bring Your Own Model.",[694],"Rebecca Carter","https://res.cloudinary.com/about-gitlab-com/image/upload/v1771438388/t6sts5qw4z8561gtlxiq.png","2026-02-19","Pour les organisations qui opèrent dans des secteurs réglementés, la transition vers l'automatisation alimentée par l'IA s'accompagne de contraintes strictes. La résidence des données, le contrôle des fournisseurs et la gouvernance ne sont pas négociables. De nombreuses organisations ont déjà investi massivement dans leurs propres modèles, avec des processus d'approbation rigoureux qui régissent leur fonctionnement et leur déploiement.\n\nAvec [GitLab 18.9](https://about.gitlab.com/releases/2026/02/19/gitlab-18-9-released/), nous proposons deux fonctionnalités qui comblent une lacune stratégique critique pour ces organisations et transformons [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/) en un plan de contrôle d'IA prêt à être déployé et gouvernable pour les environnements réglementaires les plus stricts.\n\n## GitLab Duo Agent Platform Self-Hosted pour les licences cloud en ligne\nAvec GitLab Duo Agent Platform, les équipes d'ingénierie créent des flows alimentés par l'IA qui automatisent des séquences de tâches, allant de la refactorisation des services au renforcement des pipelines CI/CD en passant par la hiérarchisation des vulnérabilités. Jusqu'à présent, l'utilisation de GitLab Duo Agent Platform en production avec des modèles auto-hébergés était principalement alignée sur des chemins de licence hors ligne ou complémentaires et n'était pas conçue pour les clients disposant de licences cloud en ligne qui opèrent dans des environnements avec des réglementations strictes.\n\nDésormais en disponibilité générale, [GitLab Duo Agent Platform Self-Hosted pour les licences cloud en ligne](https://docs.gitlab.com/subscriptions/subscription-add-ons/#gitlab-duo-agent-platform-self-hosted) introduit un modèle de facturation basé sur l'usage alimenté par les [GitLab Credits](https://about.gitlab.com/fr-fr/blog/introducing-gitlab-credits/). Cette approche offre la mesure transparente et prévisible dont les entreprises ont besoin pour instaurer la confiance et la refacturation interne.\n* **Résidence et contrôle des données** : vous pouvez désormais exécuter GitLab Duo Agent Platform en production sur des licences cloud en ligne tout en utilisant des modèles hébergés sur votre propre infrastructure ou dans des environnements cloud approuvés. Vous contrôlez ainsi le lieu d'exécution des modèles et la façon dont le trafic d'inférence est acheminé dans vos environnements approuvés.\n* **Transparence des coûts et refacturation** : bénéficiez d'une transparence granulaire des coûts grâce aux GitLab Credits et au décompte par requête, deux éléments essentiels pour une refacturation interne précise et le respect des normes réglementaires en matière de reporting.\n* **Accélération de l'adoption** : supprime un obstacle majeur au déploiement de l'IA agentique dans des secteurs comme les services financiers, les administrations publiques et les infrastructures critiques, où l'acheminement des données via des fournisseurs d'IA externes n'est tout simplement pas envisageable. Avec GitLab 18.9, GitLab Duo Agent Platform devient un environnement de déploiement de premier ordre pour les licences cloud en ligne.\n\n## Bring Your Own Model\nL'auto-hébergement de la couche d'orchestration n'est qu'une partie de la solution. De nombreux clients de secteurs réglementés ont déjà investi massivement dans leurs propres modèles : des LLM adaptés à leur domaine, des déploiements dans une région dédiée ou air-gapped pour la souveraineté des données, et des modèles fermés et internes conçus en fonction d'un profil de risque spécifique.\n\n**Bring Your Own Model (BYOM)** renforce la flexibilité de GitLab Duo Agent Platform. Les administrateurs peuvent connecter des modèles tiers ou auto-hébergés via la [passerelle d'IA (AI-Gateway) de GitLab](https://docs.gitlab.com/administration/gitlab_duo/gateway/), et les clients choisissent et contrôlent le modèle.\n* **Intégration et gouvernance** : les modèles BYOM apparaissent aux côtés des modèles gérés par GitLab dans le plan de contrôle d'IA de GitLab. GitLab Duo Agent Platform peut ainsi les traiter comme des options prêtes à l'emploi pour l'entreprise.\n* **Mappage granulaire** : une fois enregistrés via la passerelle d'IA, les modèles peuvent être mappés à des flows ou des fonctionnalités spécifiques de GitLab Duo Agent Platform. Vous pouvez ainsi exercer un contrôle étroit sur les agents et les flows, ainsi que sur les modèles utilisés. Les administrateurs restent toujours responsables de la validation des modèles, des performances et de l'évaluation des risques. Vous êtes responsable de la compatibilité, des performances et de l'évaluation des risques pour les modèles que vous apportez.\n\nEnsemble, ces fonctionnalités donnent aux responsables d'ingénierie un contrôle complet sur l'IA agentique. Ce plan de contrôle unique et gouverné pour l'IA agentique remplace l'ensemble fragmenté de solutions ponctuelles et d'outils d'IA non gérés sur lesquels de nombreuses organisations s'appuient aujourd'hui. Il s'agit d'une combinaison que les organisations réglementées réclamaient depuis longtemps : la liberté de choisir son modèle accompagnée d'une gouvernance forte, au sein de la même plateforme DevSecOps en laquelle elles ont déjà confiance.\n\n> Vous souhaitez essayer GitLab Duo Agent Platform ? [Contactez-nous ou commencez un essai gratuit dès aujourd'hui](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr).\n\n-----------\n\n_Cet article de blog contient des « déclarations prospectives » au sens de la section 27A du Securities Act de 1933, tel que modifié, et de la section 21E du Securities Exchange Act de 1934. Bien que nous croyions que les attentes reflétées dans ces déclarations sont raisonnables, elles sont soumises à des risques, incertitudes, hypothèses et autres facteurs connus et inconnus qui peuvent entraîner des résultats ou des issues réels sensiblement différents. Des informations supplémentaires sur ces risques et autres facteurs sont incluses sous la rubrique « Facteurs de risque » dans nos dépôts auprès de la SEC. Nous ne nous engageons pas à mettre à jour ou à réviser ces déclarations après la date de cet article de blog, sauf si la loi l'exige._",[22,699,700],"product","features",{"featured":26,"template":12,"slug":702},"agentic-ai-enterprise-control-self-hosted-duo-agent-platform-and-byom",{"content":704,"config":716},{"description":705,"body":706,"title":707,"heroImage":708,"date":709,"authors":710,"category":9,"tags":712},"Ce guide explique comment déployer un agent d'IA basé sur l'Agent Development Kit vers Google Kubernetes Engine à l'aide de la plateforme DevSecOps de GitLab en toute simplicité et sécurité.","Créer des [agents d'IA](https://about.gitlab.com/fr-fr/gitlab-duo/agent-platform/) est passionnant, mais leur déploiement sécurisé en production est parfois compliqué. Dans ce tutoriel, vous découvrirez comment [l'intégration native de GitLab avec Google Cloud](https://cloud.google.com/blog/topics/partners/understand-the-google-cloud-gitlab-integration) facilite le déploiement d'agents d'IA vers Google Kubernetes Engine (GKE), avec scans de sécurité intégrés et sans clés de compte de service.\n\n\n\n## Pourquoi choisir GKE pour déployer vos agents d'IA ?\n\n\n\nGKE offre une orchestration d'entreprise qui s'intègre parfaitement aux pipelines [CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/) de GitLab grâce à l'authentification OpenID Connect (OIDC). Votre équipe de développement peut déployer des agents d'IA tout en conservant une visibilité, une conformité et un contrôle complets sur votre infrastructure cloud. Ce guide utilise l'Agent Development Kit ([ADK](https://developers.googleblog.com/en/agent-development-kit-easy-to-build-multi-agent-applications/)) de Google afin de créer l'application, ce qui garantit une intégration fluide lors du déploiement avec GitLab.\n\n\n\nVoici trois avantages clés de cette approche :\n\n\n\n**Contrôle total de l'infrastructure :** vos données, vos règles, votre environnement. Vous conservez un contrôle complet sur l'emplacement d'exécution de vos agents d'IA et de leur configuration.\n\n\n\n **Intégration native avec GitLab :** pas de solution de contournement complexe. Vos pipelines existants fonctionnent immédiatement grâce à l'intégration native de GitLab avec Google Cloud.\n\n\n\n **Mise à l'échelle de niveau production :** GKE gère automatiquement la mise à l'échelle et l'orchestration interne à mesure que vos charges de travail d'IA augmentent.\n\n\n\nAvec GKE, GitLab offre la fiabilité d'entreprise dont vos déploiements d'IA ont besoin sans sacrifier l'expérience développeur que vos équipes attendent.\n\n\n\n## Prérequis\n\n\n\nAvant de commencer, assurez-vous d'avoir activé ces API :\n\n\n\n- API GKE\n\n\n- API Artifact Registry\n\n\n- API Vertex AI\n\n\n\nAssurez-vous également de disposer des éléments suivant :\n\n\n- Un projet GitLab créé\n\n\n- Un cluster GKE provisionné\n\n\n- Un dépôt Artifact Registry créé\n\n\n\n## Le processus de déploiement\n\n\n\n### 1. Configurer IAM et les autorisations sur GitLab\n\n\n\nAccédez à vos intégrations GitLab afin de configurer l'authentification Google Cloud (IAM).\n\n\n\nAccédez à **Paramètres > Intégrations** et configurez l'intégration Google Cloud. Si vous utilisez une intégration au niveau du groupe, notez que les paramètres par défaut sont déjà hérités par les projets. Il vous suffit donc de configurer vos paramètres une fois au niveau du groupe pour que tous les projets en bénéficient et les héritent.\n\n\n\nPour configurer les paramètres, vous devez fournir les éléments suivants :\n\n\n- ID du projet\n\n\n- Numéro du projet \n\n\n- ID du pool d'identités de charge de travail\n\n- ID du fournisseur\n\n\n\nUne fois ces informations renseignées, GitLab fournit un script à exécuter dans Google Cloud Console via Cloud Shell. Le résultat de l'exécution de ce script est un pool de fédération d'identité de charge de travail avec l'identité de service de compte principal nécessaire pour permettre l'accès approprié.\n\n\n### 2. Configurer l'intégration à Artifact Registry\n\n\n\nToujours dans les paramètres d'intégration de GitLab, configurez la gestion des artefacts :\n\n\n\n1. Cliquez sur **Gestion des artefacts**.\n\n\n2. Sélectionnez **Google Artifact Registry**.\n\n\n3. Indiquez les éléments suivants :\n      - ID du projet\n      - Nom du dépôt (créé au préalable)\n      - Emplacement du dépôt\n\nGitLab fournit un autre script à exécuter dans Google Cloud Console.\n\n\n\n**Important :** avant de continuer, ajoutez ces rôles supplémentaires au pool de fédération d'identité de charge de travail :\n\n\n- Utilisateur de compte de service\n\n\n- Développeur Kubernetes\n\n\n- Observateur de cluster Kubernetes\n\n\n\nCes autorisations permettent à GitLab de déployer vers GKE dans les étapes suivantes.\n\n\n\n### 3. Créer le pipeline CI/CD\n\n\n\nVoici maintenant la partie essentielle : la création du [pipeline CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/cicd-pipeline/ \"Pipeline CI/CD\") pour le déploiement.\n\n\n\nAccédez à **Compilation > Éditeur de pipeline** et définissez votre pipeline en quatre étapes :\n\n\n\n* **Build :** Docker crée l'image de conteneur.\n\n\n\n* **Test :** GitLab Auto DevOps fournit des scans de sécurité intégrés afin de garantir l'absence de vulnérabilités.\n\n\n\n* **Importation :** utilise le composant CI/CD intégré de GitLab pour effectuer un push vers Google Artifact Registry.\n\n\n\n* **Déploiement :** utilise la configuration [Kubernetes](https://about.gitlab.com/fr-fr/blog/kubernetes-the-container-orchestration-solution/ \"Kubernetes\") pour déployer vers GKE.\n\n\n\nVoici le fichier `.gitlab-ci.yml` complet :\n\n\n    ```yaml\n\n\n\n    default:\n      tags: [ saas-linux-2xlarge-amd64 ]\n\n    stages:\n      - build\n      - test\n      - upload\n      - deploy\n\n    variables:\n      GITLAB_IMAGE: $CI_REGISTRY_IMAGE/main:$CI_COMMIT_SHORT_SHA\n      AR_IMAGE: $GOOGLE_ARTIFACT_REGISTRY_REPOSITORY_LOCATION-docker.pkg.dev/$GOOGLE_ARTIFACT_REGISTRY_PROJECT_ID/$GOOGLE_ARTIFACT_REGISTRY_REPOSITORY_NAME/main:$CI_COMMIT_SHORT_SHA\n      GCP_PROJECT_ID: \"your-project-id\"\n      GKE_CLUSTER: \"your-cluster\"\n      GKE_REGION: \"us-central1\"\n      KSA_NAME: \"ai-agent-ksa\"\n\n    build:\n      image: docker:24.0.5\n      stage: build\n      services:\n        - docker:24.0.5-dind\n      before_script:\n        - docker login -u $CI_REGISTRY_USER -p $CI_REGISTRY_PASSWORD $CI_REGISTRY\n      script:\n        - docker build -t $GITLAB_IMAGE .\n        - docker push $GITLAB_IMAGE\n\n    include:\n      - template: Jobs/Dependency-Scanning.gitlab-ci.yml\n      - template: Jobs/Container-Scanning.gitlab-ci.yml\n      - template: Jobs/Secret-Detection.gitlab-ci.yml\n      - component: gitlab.com/google-gitlab-components/artifact-registry/upload-artifact-registry@main\n        inputs:\n          stage: upload\n          source: $GITLAB_IMAGE\n          target: $AR_IMAGE\n\n    deploy:\n      stage: deploy\n      image: google/cloud-sdk:slim\n      identity: google_cloud\n      before_script:\n        - apt-get update && apt-get install -y kubectl google-cloud-sdk-gke-gcloud-auth-plugin\n        - gcloud container clusters get-credentials $GKE_CLUSTER --region $GKE_REGION --project $GCP_PROJECT_ID\n      script:\n        - |\n          kubectl apply -f - \u003C\u003CEOF\n          apiVersion: apps/v1\n          kind: Deployment\n          metadata:\n            name: ai-agent\n            namespace: default\n          spec:\n            replicas: 2\n            selector:\n              matchLabels:\n                app: ai-agent\n            template:\n              metadata:\n                labels:\n                  app: ai-agent\n              spec:\n                serviceAccountName: $KSA_NAME\n                containers:\n                - name: ai-agent\n                  image: $AR_IMAGE\n                  ports:\n                  - containerPort: 8080\n                  resources:\n                    requests: {cpu: 500m, memory: 1Gi}\n                    limits: {cpu: 2000m, memory: 4Gi}\n                  livenessProbe:\n                    httpGet: {path: /health, port: 8080}\n                    initialDelaySeconds: 60\n                  readinessProbe:\n                    httpGet: {path: /health, port: 8080}\n                    initialDelaySeconds: 30\n          ---\n          apiVersion: v1\n          kind: Service\n          metadata:\n            name: ai-agent-service\n            namespace: default\n          spec:\n            type: LoadBalancer\n            ports:\n            - port: 80\n              targetPort: 8080\n            selector:\n              app: ai-agent\n          ---\n          apiVersion: autoscaling/v2\n          kind: HorizontalPodAutoscaler\n          metadata:\n            name: ai-agent-hpa\n            namespace: default\n          spec:\n            scaleTargetRef:\n              apiVersion: apps/v1\n              kind: Deployment\n              name: ai-agent\n            minReplicas: 2\n            maxReplicas: 10\n            metrics:\n            - type: Resource\n              resource:\n                name: cpu\n                target: {type: Utilization, averageUtilization: 70}\n          EOF\n          \n          kubectl rollout status deployment/ai-agent -n default --timeout=5m\n          EXTERNAL_IP=$(kubectl get service ai-agent-service -n default -o jsonpath='{.status.loadBalancer.ingress[0].ip}')\n          echo \"Deployed at: http://$EXTERNAL_IP\"\n      only:\n        - main\n```\n\n\n#### Configuration essentielle pour GKE\n\n\n\nPour que tout fonctionne, et c'est la raison pour laquelle nous avons besoin de cette configuration supplémentaire pour GKE, nous devons disposer d'un compte de service Kubernetes dans le cluster qui peut fonctionner avec Vertex AI. Ce compte de service doit être autorisé à accéder aux capacités d'IA de Google Cloud.\n\n\n\nSans cela, nous pouvons déployer l'application, mais l'agent d'IA ne fonctionnera pas. Nous devons créer un compte de service Kubernetes capable d'accéder à Vertex AI.\n\n\n\nExécutez cette configuration ponctuelle :\n\n\n\n    ```bash\n\n\n\n    #!/bin/bash\n\n\n\n    PROJECT_ID=\"your-project-id\"\n\n\n\n    GSA_NAME=\"ai-agent-vertex\"\n\n\n\n    GSA_EMAIL=\"${GSA_NAME}@${PROJECT_ID}.iam.gserviceaccount.com\"\n\n\n\n    KSA_NAME=\"ai-agent-ksa\"\n\n\n\n    CLUSTER_NAME=\"your-cluster\"\n\n\n\n    REGION=\"us-central1\"\n\n\n\n\n    # Create GCP Service Account\n\n\n\n    gcloud iam service-accounts create $GSA_NAME \\\n        --display-name=\"AI Agent Vertex AI\" \\\n        --project=$PROJECT_ID\n\n    # Grant Vertex AI permissions\n\n\n\n    gcloud projects add-iam-policy-binding $PROJECT_ID \\\n        --member=\"serviceAccount:${GSA_EMAIL}\" \\\n        --role=\"roles/aiplatform.user\"\n\n    # Get cluster credentials\n\n\n\n    gcloud container clusters get-credentials $CLUSTER_NAME \\\n        --region $REGION --project $PROJECT_ID\n\n    # Create Kubernetes Service Account\n\n\n\n    kubectl create serviceaccount $KSA_NAME -n default\n\n\n\n\n    # Link accounts\n\n\n\n    kubectl annotate serviceaccount $KSA_NAME -n default \\\n        iam.gke.io/gcp-service-account=${GSA_EMAIL}\n\n    gcloud iam service-accounts add-iam-policy-binding ${GSA_EMAIL} \\\n        --role=roles/iam.workloadIdentityUser \\\n        --member=\"serviceAccount:${PROJECT_ID}.svc.id.goog[default/${KSA_NAME}]\" \\\n        --project=$PROJECT_ID\n```\n\n\n### 4. Déployer vers GKE\n\n\n\nUne fois que vous avez terminé, effectuez un push vers le pipeline et le tour est joué.\n\n\n\nLe pipeline vient d'être déployé. Accédez à **CI/CD > Pipelines** pour voir les quatre étapes :\n\n\n- Build\n\n\n- Test (avec tous les scans de sécurité définis)\n\n\n- Importation vers Artifact Registry (réussie)\n\n\n- Déploiement vers Kubernetes dans GKE (réussi)\n\n\n\n## Résumé\n\n\n\nAvec GitLab et Google Cloud, vous êtes en mesure de déployer votre agent d'IA vers GKE en toute simplicité et sécurité en quelques étapes seulement grâce à l'intégration native de GitLab avec Google Cloud.\n\n\nRegardez cette démo :\n\n\n\u003C!-- blank line -->\n\n\u003Cfigure class=\"video_container\">\n  \u003Ciframe src=\"https://www.youtube.com/embed/mc2pCL5Qjus?si=QoH02lvz5KH5Ku9O\" frameborder=\"0\" allowfullscreen=\"true\"> \u003C/iframe>\n\u003C/figure>\n\n\u003C!-- blank line -->\n\n\n> Utilisez [l'exemple de code complet de ce tutoriel](https://gitlab.com/gitlab-partners-public/google-cloud/demos/gke-ai-agent) pour commencer dès maintenant. Vous n’utilisez pas encore GitLab ? Découvrez la plateforme DevSecOps et profitez d'[un essai gratuit](https://about.gitlab.com/fr-fr/free-trial/). Les startups hébergées sur Google Cloud disposent d'[une offre spéciale pour essayer et utiliser GitLab](https://about.gitlab.com/fr-fr/solutions/startups/google-cloud/).","Déploiement sécurisé d'agents d'IA sur GKE","https://res.cloudinary.com/about-gitlab-com/image/upload/f_auto,q_auto,c_lfill/v1749670563/Blog/Hero%20Images/cloudcomputing.jpg","2026-02-06",[711],"Regnard Raquedan",[22,713,714,715],"google","cloud native","tutorial",{"featured":11,"template":12,"slug":717},"secure-ai-agent-deployment-to-gke",{"promotions":719},[720,733,745],{"id":721,"categories":722,"header":723,"text":724,"button":725,"image":730},"ai-modernization",[9],"Is AI achieving its promise at scale?","Quiz will take 5 minutes or less",{"text":726,"config":727},"Get your AI maturity score",{"href":728,"dataGaName":729,"dataGaLocation":242},"/assessments/ai-modernization-assessment/","modernization assessment",{"config":731},{"src":732},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/qix0m7kwnd8x2fh1zq49.png",{"id":734,"categories":735,"header":737,"text":724,"button":738,"image":742},"devops-modernization",[699,736],"devsecops","Are you just managing tools or shipping innovation?",{"text":739,"config":740},"Get your DevOps maturity score",{"href":741,"dataGaName":729,"dataGaLocation":242},"/assessments/devops-modernization-assessment/",{"config":743},{"src":744},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138785/eg818fmakweyuznttgid.png",{"id":746,"categories":747,"header":749,"text":724,"button":750,"image":754},"security-modernization",[748],"security","Are you trading speed for security?",{"text":751,"config":752},"Get your security maturity score",{"href":753,"dataGaName":729,"dataGaLocation":242},"/assessments/security-modernization-assessment/",{"config":755},{"src":756},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/p4pbqd9nnjejg5ds6mdk.png",{"header":758,"blurb":759,"button":760,"secondaryButton":764},"Commencez à développer plus rapidement dès aujourd'hui","Découvrez ce que votre équipe peut accomplir avec la plateforme d'orchestration intelligente pour le DevSecOps.\n",{"text":44,"config":761},{"href":762,"dataGaName":47,"dataGaLocation":763},"https://gitlab.com/-/trial_registrations/new?glm_content=default-saas-trial&glm_source=about.gitlab.com/fr-fr/","feature",{"text":49,"config":765},{"href":51,"dataGaName":52,"dataGaLocation":763},1772652101950]