[{"data":1,"prerenderedAt":820},["ShallowReactive",2],{"/fr-fr/blog/large-language-model":3,"navigation-fr-fr":40,"banner-fr-fr":456,"footer-fr-fr":466,"blog-post-authors-fr-fr-GitLab France Team":702,"blog-related-posts-fr-fr-large-language-model":717,"blog-promotions-fr-fr":759,"next-steps-fr-fr":811},{"id":4,"title":5,"authorSlugs":6,"authors":8,"body":10,"category":11,"categorySlug":11,"config":12,"content":16,"date":20,"description":17,"extension":24,"externalUrl":25,"featured":14,"heroImage":19,"isFeatured":14,"meta":26,"navigation":27,"path":28,"publishedDate":20,"rawbody":29,"seo":30,"slug":13,"stem":34,"tagSlugs":35,"tags":38,"template":15,"updatedDate":25,"__hash__":39},"blogPosts/fr-fr/blog/large-language-model.yml","Qu’est-ce qu’un grand modèle de langage (LLM) ?",[7],"gitlab-france-team",[9],"GitLab France Team","Les grands modèles de langage (ou Large Language Models) révolutionnent les approches [DevOps](https://about.gitlab.com/fr-fr/topics/devops/ \"Qu'est-ce que le DevOps ? \") et DevSecOps en simplifiant des tâches complexes, qu’il s’agisse de créer du code, d’examiner des logs ou de détecter des vulnérabilités.\n\nDans cet article, découvrez comment fonctionnent les grands modèles de langage, leurs applications concrètes et les principaux enjeux à surmonter pour exploiter pleinement leur potentiel.\n\n__Sommaire__\n- Qu’est-ce qu’un LLM ?\n- Comment fonctionnent les grands modèles de langage ?\n- Applications des grands modèles de langage dans une approche DevSecOps\n- Quels sont les avantages des grands modèles de langage ?\n- Quels sont les défis liés à l’utilisation des LLM ?\n- Comment GitLab utilise les LLM pour ses fonctionnalités GitLab Duo ?\n\n## Qu’est-ce qu’un LLM ?\n\nLes grands modèles de langage (LLM) sont des systèmes d’intelligence artificielle capables de traiter et de générer du texte de manière autonome. Leur apprentissage repose sur l’analyse de vastes ensembles de données issues de sources variées, afin qu’ils puissent maîtriser les structures linguistiques, les relations contextuelles et les nuances du langage.\n\nLes LLM représentent une avancée majeure dans le domaine de l’IA. Leur capacité à traiter, générer et interpréter du texte repose sur des techniques sophistiquées d’apprentissage automatique et de traitement automatique du langage naturel (NLP). Ces systèmes ne se contentent pas de traiter des mots isolés : ils analysent des séquences complexes pour saisir le sens global, les contextes subtils et les nuances linguistiques.\n\n## Comment fonctionnent les grands modèles de langage ?\n\nPour mieux comprendre leur fonctionnement, explorons certaines des caractéristiques clés des grands modèles de langages.\n\n### Apprentissage supervisé et non supervisé\n\nLes grands modèles de langage sont entraînés selon deux approches complémentaires : l’apprentissage supervisé et l’apprentissage non supervisé. Ces deux approches du machine learning permettent de maximiser leurs capacités à analyser et à générer du texte.\n\n- **L’apprentissage supervisé** repose sur des données étiquetées, où chaque entrée est associée à un résultat attendu. Le modèle apprend à associer ces entrées aux sorties correctes en ajustant ses paramètres internes pour réduire les erreurs de prédiction. Grâce à cette approche, le modèle acquiert des connaissances précises sur des tâches spécifiques, telles que la classification de textes ou la reconnaissance d’entités nommées.\n\n- **L’apprentissage non supervisé (ou apprentissage automatique)**, quant à lui, ne nécessite pas de données étiquetées. Le modèle explore de vastes volumes de texte pour découvrir des structures cachées et identifier des relations sémantiques. Ainsi, le modèle est en capacité d‘apprendre des schémas récurrents, des règles grammaticales implicites dans le texte ou encore de contextualisation des phrases et des concepts. Cette méthode permet d’entraîner les LLM sur de vastes corpus de données, accélérant considérablement leur progression sans intervention humaine directe.\n\nEn combinant ces deux approches, les grands modèles de langage bénéficient autant d'un apprentissage précis guidé par des humains que d’une exploration autonome illimitée. Cette complémentarité leur permet de se développer rapidement, tout en améliorant continuellement leur capacité à comprendre et à générer du texte de manière cohérente et contextuelle.\n\n### Apprentissage reposant sur un large volume de données\n\nLes grands modèles de langage sont entraînés à partir de milliards de phrases issues de sources variées, telles que des articles de presse, des forums en ligne, des documentations techniques, des études scientifiques et bien plus encore. Cette variété de sources leur permet d’acquérir une compréhension étendue et nuancée du langage naturel, allant des expressions courantes aux terminologies spécialisées.\n\nLa richesse des données utilisées est un facteur clé de la performance des LLM. Chaque source apporte des styles d’écriture, des contextes culturels et des niveaux de technicité différents.\n\nPar exemple :\n- __Des articles de presse__ : pour maîtriser un langage informatif et factuel.\n- __Des forums en ligne__ : pour comprendre les conversations informelles et les langages techniques des communautés spécialisées.\n- __Des documentations techniques et études scientifiques__ : pour assimiler des concepts complexes et des terminologies spécifiques, notamment dans des domaines comme le DevOps et le DevSecOps.\n\nCette diversité de contenu permet aux LLM de reconnaître des structures linguistiques complexes, d’interpréter des phrases dans différents contextes et de s’adapter à des domaines très techniques. Dans le DevSecOps, cela signifie comprendre des commandes, des configurations, des protocoles de sécurité et même des concepts liés au développement et à la maintenance de systèmes informatiques.\n\nGrâce à cette formation à grande échelle, les grands modèles de langage peuvent répondre avec précision à des questions complexes, rédiger des documentations techniques ou identifier des vulnérabilités dans des systèmes informatiques.\n\n### Architecture de réseaux neuronaux et « deep learning »\n\nLes grands modèles de langage reposent sur des architectures de réseaux neuronaux avancées. Ces réseaux sont spécialement conçus pour traiter de grandes séquences de texte tout en maintenant une compréhension précise du contexte. Cet apprentissage en « deep learning » constitue un atout majeur dans le domaine du traitement automatique du langage naturel (NLP).\n\nLa plus connue de ces structures est l’architecture des modèles séquence à séquence (transformers). Cette architecture a révolutionné le NLP grâce à sa capacité à analyser simultanément toutes les parties d’un texte, contrairement aux approches séquentielles qui traitent les mots un par un.\n\nLes modèles séquence à séquence excellent dans le traitement des textes longs. Par exemple, dans une conversation ou un document technique détaillé, ils sont capables de relier des informations distantes dans le texte pour produire des réponses précises et bien argumentées. Cette gestion du contexte est essentielle dans une approche DevSecOps, où les instructions peuvent être complexes et réparties sur plusieurs lignes de code ou étapes de configuration.\n\n### Génération de texte prédictive\n\nLorsque l'utilisateur soumet un texte, une requête ou une question, un grand modèle de langage utilise sa capacité de prédiction pour générer la suite la plus probable, fondée sur le contexte fourni.\n\nLe modèle analyse chaque mot, étudie les relations grammaticales et sémantiques, puis sélectionne les termes les plus adaptés pour produire un texte cohérent et informatif. Cette approche permet de générer des réponses précises, détaillées et adaptées au ton attendu.\n\nDans les environnements DevSecOps, cette capacité devient particulièrement utile pour :\n- **l’assistance au codage** : génération de blocs de code ou de scripts adaptés à des configurations spécifiques.\n- **la résolution de problèmes techniques** : propositions de solutions basées sur des descriptions de bogues ou d’erreurs.\n- **la rédaction de documentations techniques** : création automatique de guides, de manuels ou d'instructions.\n\nLa génération de texte prédictive permet ainsi d’automatiser de nombreuses tâches répétitives et d’accélérer le travail des équipes techniques.\n\n## Applications des grands modèles de langage dans une approche DevSecOps\n\nAvec la montée en puissance de l’automatisation, les grands modèles de langage sont devenus des alliés incontournables pour les équipes techniques. Leur capacité à comprendre et à générer du texte de manière contextuelle leur permet d’intervenir efficacement dans des environnements complexes tels que le [DevSecOps](https://about.gitlab.com/fr-fr/topics/devsecops/ \"Qu'est-ce que le DevSecOps ?\").\n\nGrâce à leur puissance d’analyse et leur capacité à s’adapter aux besoins spécifiques, ces modèles offrent des solutions sur mesure pour rationaliser les processus et alléger la charge de travail des équipes techniques.\n\n### Génération de code automatisée\n\nLes équipes de développement peuvent exploiter les grands modèles de langage pour transformer des spécifications fonctionnelles en code source de manière automatisée.\n\nGrâce à cette capacité, elles peuvent :\n\n- générer des scripts d'automatisation complexes,\n- créer des pipelines CI/CD adaptés aux processus spécifiques de l'entreprise,\n- produire des correctifs de sécurité sur mesure.\n- générer des explications de code et créer une documentation,\n- refactoriser le code en améliorant sa structure et sa lisibilité sans modifier les fonctionnalités,\n- générer des tests.\n\nEn s'appuyant sur les LLM, les équipes parviennent à accélérer le développement de leurs logiciels tout en réduisant les risques d'erreurs humaines.\n\n### Documentation et partage des connaissances améliorés\n\nCes puissants outils facilitent la création de manuels d'utilisation, de descriptions d'API et de tutoriels sur mesure, parfaitement adaptés au niveau d'expertise de chaque utilisateur. En s’appuyant sur des bases de connaissances existantes, les grands modèles de langages créent des réponses contextuelles aux questions fréquentes. Cela améliore la transmission des savoirs au sein des équipes, accélère l'intégration des nouveaux membres et permet de centraliser les bonnes pratiques.\n\n### Gestion des incidents et dépannage\n\nLors d’un incident, les LLM jouent un rôle crucial en analysant en temps réel les logs et les fichiers de trace. Grâce à leur capacité à croiser des informations provenant de multiples sources, ils identifient les anomalies et proposent des solutions fondées sur des incidents similaires passés. Cette approche réduit significativement le temps de diagnostic. De plus, les LLM peuvent automatiser la création de rapports d'incidents détaillés et recommander des actions correctives précises.\n\n### Création et amélioration des pipelines CI/CD\n\nLes grands modèles de langage révolutionnent la configuration des [pipelines CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/cicd-pipeline/ \"Qu'est-ce qu'un pipeline CI/CD ?\"). Ils peuvent non seulement aider à créer des pipelines, mais aussi à automatiser ce processus et proposer des configurations optimales basées sur des standards de l'industrie. En adaptant les workflows selon vos besoins spécifiques, ils assurent une cohérence parfaite entre les différents environnements de développement. Les tests automatisés sont renforcés par des suggestions pertinentes, limitant ainsi les risques de défaillance. Les LLM surveillent également en continu l’efficacité des pipelines et ajustent les processus pour garantir un déploiement fluide et sans interruption.\n\n### Sécurité et conformité\n\nDans un environnement DevSecOps, les grands modèles de langage deviennent des alliés précieux pour la [sécurité et la conformité](https://about.gitlab.com/fr-fr/solutions/application-security-testing/ \"Sécurité et conformité\"). Ils analysent le code source à la recherche de vulnérabilités potentielles et génèrent des recommandations correctives détaillées. Les LLM peuvent également surveiller l'application des normes de sécurité en temps réel, produire des rapports de conformité complets et automatiser l'application de correctifs de sécurité dès qu'une faille est identifiée. Cette automatisation renforce la sécurité globale et garantit un respect constant des exigences légales et industrielles.\n\n## Quels sont les avantages des grands modèles de langage ?\n\nLes grands modèles de langage transforment en profondeur les approches DevOps et DevSecOps, apportant des améliorations substantielles en matière de productivité, de sécurité et de qualité logicielle. En s’intégrant aux workflows existants, les LLM bouleversent les approches traditionnelles en automatisant des tâches complexes et en fournissant des solutions innovantes.\n\n### Amélioration de la productivité et de l’efficacité\n\nLes grands modèles de langage jouent un rôle central dans l’amélioration de la productivité et de l’efficacité des équipes techniques. En automatisant un large éventail de tâches répétitives, ils libèrent les équipes de développement des opérations routinières. Ces dernières peuvent ainsi se concentrer sur des activités stratégiques à plus forte valeur ajoutée.\n\nEn outre, les LLM agissent comme des assistants techniques intelligents capables de fournir instantanément des extraits de code pertinents, adaptés au contexte spécifique de chaque projet. De cette manière, ils réduisent considérablement le temps de recherche en proposant des solutions prêtes à l’emploi pour assister les équipes dans leur travail. Cette assistance ciblée accélère la résolution des problèmes et diminue les interruptions dans les workflows.\n\nAinsi, la productivité augmente et les projets avancent plus rapidement. Les équipes techniques peuvent prendre en charge un plus grand nombre de tâches sans compromettre la qualité des livrables.\n\n### Amélioration de la qualité du code et de la sécurité\n\nL’utilisation des grands modèles de langage dans le développement logiciel constitue un levier majeur pour améliorer autant la qualité du code que la sécurité des applications. Grâce à leurs capacités d’analyse avancées, les LLM peuvent examiner le code source ligne par ligne et détecter instantanément les erreurs syntaxiques, incohérences logiques et vulnérabilités potentielles. Leur aptitude à reconnaître le code défectueux permet de recommander des corrections adaptées et conformes aux meilleures pratiques du secteur.\n\nLes LLM jouent aussi un rôle préventif essentiel. Ils excellent dans l'identification des failles de sécurité complexes, souvent difficiles à repérer par les humains. En analysant les dépendances, ils peuvent signaler des bibliothèques obsolètes ou vulnérables, et recommander des versions mises à jour plus sûres. Cette approche contribue au maintien d’un environnement sécurisé et conforme aux normes de sécurité en vigueur.\n\nAu-delà de la correction des erreurs existantes, les LLM proposent des améliorations en suggérant des pratiques de codage et des structures de projet optimisées. Ils peuvent générer du code respectant les normes de sécurité les plus avancées, et ce, dès les premières étapes du développement.\n\n### Accélération des cycles de développement\n\nLes grands modèles de langage jouent un rôle déterminant dans l’accélération des cycles de développement logiciel en automatisant des tâches clés qui, autrement, mobiliseraient de précieuses ressources humaines.\n\nLes tâches complexes et répétitives, comme l’écriture de fonctions, la création de tests unitaires ou l’implémentation de composants standards, sont automatisées en quelques instants.\n\nLes LLM accélèrent également la phase de validation grâce à leur capacité à suggérer des scénarios de test complets et adaptés. Ils garantissent une couverture de test plus étendue en un minimum de temps, réduisant les risques d’erreurs et facilitant la détection précoce des anomalies. Cette approche préventive raccourcit le cycle de corrections et limite les retards liés aux problèmes de qualité du code.\n\nEn simplifiant les tâches techniques et en fournissant des solutions rapides et adaptées, les grands modèles de langage favorisent une réponse plus agile des entreprises aux exigences du marché. Cette accélération du cycle de développement se traduit par des mises à jour plus fréquentes, des itérations plus rapides et une meilleure capacité à adapter les produits aux besoins changeants des utilisateurs.\n\nLes cycles de développement deviennent ainsi plus courts, offrant un avantage stratégique essentiel dans un environnement technologique toujours plus exigeant.\n\n## Quels sont les défis liés à l’utilisation des LLM ?\n\nMalgré leurs nombreux avantages, les grands modèles de langage présentent certaines limites qui nécessitent une gestion attentive. Leur efficacité dépend fortement de la qualité des données utilisées lors de leur entraînement et de la mise à jour régulière de leurs bases de connaissances. De plus, des problèmes liés aux biais algorithmiques, à la sécurité des données et à la confidentialité peuvent survenir, exposant les entreprises à des risques opérationnels et juridiques. Une supervision humaine rigoureuse demeure indispensable pour garantir la fiabilité des résultats, assurer la conformité réglementaire et éviter les erreurs critiques.\n\n### Confidentialité et sécurité des données\n\nL’entraînement des LLM repose sur de vastes volumes de données, souvent issues de sources diverses, ce qui soulève des questions quant à la protection des informations confidentielles. Les données sensibles partagées avec des plateformes cloud peuvent donc être exposées à des violations potentielles. Cela inquiète particulièrement les entreprises opérant dans des secteurs réglementés.\n\nEn Europe, où des réglementations strictes comme le RGPD régissent la gestion des données, de nombreuses entreprises hésitent à transférer leurs informations vers des services externes. Les exigences réglementaires, associées à la crainte d'une exploitation non autorisée des données sensibles, incitent certaines entreprises à privilégier des solutions auto-hébergées pour conserver un contrôle total sur leurs systèmes.\n\nDes fournisseurs comme GitLab ont mis en place des garanties de sécurité robustes, telles que la non-rétention intentionnelle des données à caractère personnel et le chiffrement de bout en bout. Toutefois, cela peut ne pas suffire pour les clients les plus exigeants, qui préfèrent une maîtrise complète de leurs environnements. La mise en œuvre de solutions hybrides ou sur site devient alors une nécessité stratégique pour répondre aux exigences de sécurité de certaines entreprises.\n\nPour en savoir plus sur GitLab Duo Self-Hosted, cliquez sur l'image ci-dessous pour accéder à la visite guidée.\n\n\u003Ca href=\"https://gitlab.navattic.com/gitlab-duo-self-hosted\">\u003Cimg src=\"https://res.cloudinary.com/about-gitlab-com/image/upload/v1752176132/Blog/chn5c0bsfauypnjfhmxv.png\" alt=\"GitLab Duo Self-Hosted Product Tour\">\u003C/a>\n\n### Précision et fiabilité\n\nBien que les grands modèles de langage soient capables de générer des résultats impressionnants, leur performance n’est pas infaillible. Ils peuvent produire des réponses incorrectes, incomplètes ou incohérentes. Cette imprécision devient particulièrement problématique dans le cadre de tâches critiques comme la génération de code de sécurité ou l'analyse de données sensibles.\n\nDe plus, les LLM fonctionnent sur la base de modèles probabilistes, ce qui signifie qu’ils ne « comprennent » pas véritablement le contenu qu'ils traitent, mais produisent des prédictions basées sur des probabilités statistiques. Cela peut entraîner des recommandations techniquement incorrectes, voire dangereuses, lorsqu'elles sont utilisées sans validation humaine.\n\nPour éviter ces pièges, il est essentiel de maintenir une supervision constante et d’établir des processus de validation rigoureux. Les résultats fournis par les LLM doivent alors toujours être examinés par des humains avant leur intégration dans des systèmes critiques.\n\nUne stratégie de mise à jour régulière des modèles, associée à une surveillance humaine proactive, permet de réduire les erreurs et d'améliorer progressivement la fiabilité des résultats.\n\n## Comment GitLab utilise les LLM pour ses fonctionnalités GitLab Duo ?\n\n[GitLab Duo](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/ \"Qu'est-ce que GitLab Duo ? \") exploite la puissance des grands modèles de langage pour transformer les processus DevSecOps en intégrant des fonctionnalités alimentées par l’IA, et ce, tout au long du cycle de vie du développement logiciel. Cette approche vise à améliorer la productivité, renforcer la sécurité et automatiser des tâches complexes afin de permettre aux équipes de développement de se concentrer sur des tâches à forte valeur ajoutée.\n\n### Une assistance IA pour le développement logiciel\n\nGitLab Duo propose un soutien continu tout au long du cycle de développement logiciel grâce à des recommandations en temps réel. Les équipes de développement peuvent automatiquement générer des tests unitaires, obtenir des explications détaillées sur des segments de code complexes et bénéficier de suggestions pour améliorer la qualité de leur code.\n\n### Analyse proactive des défaillances CI/CD\n\nL’une des fonctionnalités clés de GitLab Duo est son assistance à l'analyse des échecs des jobs CI/CD. Grâce au LLM et l’IA, les équipes parviennent à identifier rapidement les sources d'erreurs dans leurs pipelines d’intégration et de déploiement continus.\n\n### Sécurité du code renforcée\n\nGitLab Duo intègre des fonctionnalités de sécurité basées sur l’IA. Le système détecte les vulnérabilités dans le code source et propose des correctifs détaillés pour en réduire les risques. Les équipes reçoivent des explications claires sur la nature des failles identifiées et peuvent appliquer des correctifs automatisés via des [merge requests](https://docs.gitlab.com/user/project/merge_requests/ \"Merge request\") générées directement par GitLab Duo. Cette fonctionnalité permet de sécuriser le développement sans pour autant ralentir les cycles de développement.\n\nPour en savoir plus sur cette fonctionnalité, cliquez sur l'image ci-dessous pour accéder à notre visite guidée.\n\n\u003Ca href=\"https://gitlab.navattic.com/ve-vr-short\">\u003Cimg src=\"https://res.cloudinary.com/about-gitlab-com/image/upload/v1752176145/Blog/bhpatrqtajlcys0lnjwe.png\" alt=\"GitLab Vulnerability Report Product Tour\">\u003C/a>\n\n#### Fonctionnalités clés de GitLab Duo\n\n- [GitLab Duo Chat](https://about.gitlab.com/fr-fr/blog/10-best-practices-for-using-ai-powered-gitlab-duo-chat/ \"GitLab Duo Chat\") : cette fonctionnalité conversationnelle traite et génère du texte et du code de manière intuitive. Elle permet aux utilisateurs de rechercher rapidement des informations pertinentes dans des volumes importants de texte, notamment dans les tickets, les [epics](https://docs.gitlab.com/user/group/epics/ \"Epics\"), le code source et la [documentation GitLab](https://docs.gitlab.com/ \"Documentation GitLab\").\n\n- [GitLab Duo Self-Hosted](https://about.gitlab.com/fr-fr/blog/gitlab-duo-self-hosted-enterprise-ai-built-for-data-privacy/ \"GitLab Duo Self-Hosted\") : GitLab Duo Self-Hosted permet aux entreprises ayant des exigences strictes en matière de confidentialité de leurs données de bénéficier des fonctionnalités d’IA de GitLab Duo avec une flexibilité dans le choix du déploiement et des LLM parmi une liste d’options supportées.\n\n- [Suggestions de code](https://docs.gitlab.com/user/project/repository/code_suggestions/ \"Suggestions de code\") : les équipes de développement bénéficient de suggestions de code automatisées, ce qui leur permet d'écrire du code sécurisé plus rapidement. Les tâches de codage répétitives et routinières sont ainsi automatisées, accélérant considérablement les cycles de développement logiciel.\n\nGitLab Duo ne se limite pas à ces fonctionnalités. Il offre une gamme étendue de fonctionnalités destinées à simplifier et à optimiser le développement logiciel. Que ce soit pour automatiser des tests, améliorer la collaboration entre les équipes ou renforcer la sécurité des projets, GitLab Duo constitue une solution complète pour des processus DevSecOps intelligents et efficaces.\n\nPour en savoir plus sur GitLab Duo Enterprise, cliquez sur l'image ci-dessous pour accéder à notre visite guidée.\n\n\u003Ca href=\"https://gitlab.navattic.com/duo-enterprise\">\u003Cimg src=\"https://res.cloudinary.com/about-gitlab-com/image/upload/v1752175911/Blog/b5gdnls7jdyrpeyjby5j.png\" alt=\"GitLab Duo Enterprise Product Tour\">\u003C/a>\n","ai-ml",{"slug":13,"featured":14,"template":15},"large-language-model",false,"BlogPost",{"title":5,"description":17,"authors":18,"heroImage":19,"date":20,"body":10,"category":11,"tags":21},"Que sont les grands modèles de langage ? Découvrez leur fonctionnement, leurs applications et leurs impacts dans l’univers DevSecOps.",[9],"https://res.cloudinary.com/about-gitlab-com/image/upload/v1749660057/Blog/Hero%20Images/LLM.jpg","2025-05-28",[22,23],"AI/ML","DevSecOps","yml",null,{},true,"/fr-fr/blog/large-language-model","seo:\n  title: Qu’est-ce qu’un grand modèle de langage (LLM) ?\n  description: >-\n    Que sont les grands modèles de langage ? Découvrez leur fonctionnement,\n    leurs applications et leurs impacts dans l’univers DevSecOps.\n  ogTitle: Qu’est-ce qu’un grand modèle de langage (LLM) ?\n  ogDescription: >-\n    Que sont les grands modèles de langage ? Découvrez leur fonctionnement,\n    leurs applications et leurs impacts dans l’univers DevSecOps.\n  noIndex: false\n  ogImage: >-\n    https://res.cloudinary.com/about-gitlab-com/image/upload/v1749660057/Blog/Hero%20Images/LLM.jpg\n  ogUrl: https://about.gitlab.com/blog/large-language-model\n  ogSiteName: https://about.gitlab.com\n  ogType: article\n  canonicalUrls: https://about.gitlab.com/blog/large-language-model\ncontent:\n  title: Qu’est-ce qu’un grand modèle de langage (LLM) ?\n  description: >-\n    Que sont les grands modèles de langage ? Découvrez leur fonctionnement,\n    leurs applications et leurs impacts dans l’univers DevSecOps.\n  authors:\n    - GitLab France Team\n  heroImage: >-\n    https://res.cloudinary.com/about-gitlab-com/image/upload/v1749660057/Blog/Hero%20Images/LLM.jpg\n  date: '2025-05-28'\n  body: >\n    Les grands modèles de langage (ou Large Language Models) révolutionnent les\n    approches [DevOps](https://about.gitlab.com/fr-fr/topics/devops/ \"Qu'est-ce\n    que le DevOps ? \") et DevSecOps en simplifiant des tâches complexes, qu’il\n    s’agisse de créer du code, d’examiner des logs ou de détecter des\n    vulnérabilités.\n\n\n    Dans cet article, découvrez comment fonctionnent les grands modèles de\n    langage, leurs applications concrètes et les principaux enjeux à surmonter\n    pour exploiter pleinement leur potentiel.\n\n\n    __Sommaire__\n\n    - Qu’est-ce qu’un LLM ?\n\n    - Comment fonctionnent les grands modèles de langage ?\n\n    - Applications des grands modèles de langage dans une approche DevSecOps\n\n    - Quels sont les avantages des grands modèles de langage ?\n\n    - Quels sont les défis liés à l’utilisation des LLM ?\n\n    - Comment GitLab utilise les LLM pour ses fonctionnalités GitLab Duo ?\n\n\n    ## Qu’est-ce qu’un LLM ?\n\n\n    Les grands modèles de langage (LLM) sont des systèmes d’intelligence\n    artificielle capables de traiter et de générer du texte de manière autonome.\n    Leur apprentissage repose sur l’analyse de vastes ensembles de données\n    issues de sources variées, afin qu’ils puissent maîtriser les structures\n    linguistiques, les relations contextuelles et les nuances du langage.\n\n\n    Les LLM représentent une avancée majeure dans le domaine de l’IA. Leur\n    capacité à traiter, générer et interpréter du texte repose sur des\n    techniques sophistiquées d’apprentissage automatique et de traitement\n    automatique du langage naturel (NLP). Ces systèmes ne se contentent pas de\n    traiter des mots isolés : ils analysent des séquences complexes pour saisir\n    le sens global, les contextes subtils et les nuances linguistiques.\n\n\n    ## Comment fonctionnent les grands modèles de langage ?\n\n\n    Pour mieux comprendre leur fonctionnement, explorons certaines des\n    caractéristiques clés des grands modèles de langages.\n\n\n    ### Apprentissage supervisé et non supervisé\n\n\n    Les grands modèles de langage sont entraînés selon deux approches\n    complémentaires : l’apprentissage supervisé et l’apprentissage non\n    supervisé. Ces deux approches du machine learning permettent de maximiser\n    leurs capacités à analyser et à générer du texte.\n\n\n    - **L’apprentissage supervisé** repose sur des données étiquetées, où chaque\n    entrée est associée à un résultat attendu. Le modèle apprend à associer ces\n    entrées aux sorties correctes en ajustant ses paramètres internes pour\n    réduire les erreurs de prédiction. Grâce à cette approche, le modèle\n    acquiert des connaissances précises sur des tâches spécifiques, telles que\n    la classification de textes ou la reconnaissance d’entités nommées.\n\n\n    - **L’apprentissage non supervisé (ou apprentissage automatique)**, quant à\n    lui, ne nécessite pas de données étiquetées. Le modèle explore de vastes\n    volumes de texte pour découvrir des structures cachées et identifier des\n    relations sémantiques. Ainsi, le modèle est en capacité d‘apprendre des\n    schémas récurrents, des règles grammaticales implicites dans le texte ou\n    encore de contextualisation des phrases et des concepts. Cette méthode\n    permet d’entraîner les LLM sur de vastes corpus de données, accélérant\n    considérablement leur progression sans intervention humaine directe.\n\n\n    En combinant ces deux approches, les grands modèles de langage bénéficient\n    autant d'un apprentissage précis guidé par des humains que d’une exploration\n    autonome illimitée. Cette complémentarité leur permet de se développer\n    rapidement, tout en améliorant continuellement leur capacité à comprendre et\n    à générer du texte de manière cohérente et contextuelle.\n\n\n    ### Apprentissage reposant sur un large volume de données\n\n\n    Les grands modèles de langage sont entraînés à partir de milliards de\n    phrases issues de sources variées, telles que des articles de presse, des\n    forums en ligne, des documentations techniques, des études scientifiques et\n    bien plus encore. Cette variété de sources leur permet d’acquérir une\n    compréhension étendue et nuancée du langage naturel, allant des expressions\n    courantes aux terminologies spécialisées.\n\n\n    La richesse des données utilisées est un facteur clé de la performance des\n    LLM. Chaque source apporte des styles d’écriture, des contextes culturels et\n    des niveaux de technicité différents.\n\n\n    Par exemple :\n\n    - __Des articles de presse__ : pour maîtriser un langage informatif et\n    factuel.\n\n    - __Des forums en ligne__ : pour comprendre les conversations informelles et\n    les langages techniques des communautés spécialisées.\n\n    - __Des documentations techniques et études scientifiques__ : pour assimiler\n    des concepts complexes et des terminologies spécifiques, notamment dans des\n    domaines comme le DevOps et le DevSecOps.\n\n\n    Cette diversité de contenu permet aux LLM de reconnaître des structures\n    linguistiques complexes, d’interpréter des phrases dans différents contextes\n    et de s’adapter à des domaines très techniques. Dans le DevSecOps, cela\n    signifie comprendre des commandes, des configurations, des protocoles de\n    sécurité et même des concepts liés au développement et à la maintenance de\n    systèmes informatiques.\n\n\n    Grâce à cette formation à grande échelle, les grands modèles de langage\n    peuvent répondre avec précision à des questions complexes, rédiger des\n    documentations techniques ou identifier des vulnérabilités dans des systèmes\n    informatiques.\n\n\n    ### Architecture de réseaux neuronaux et « deep learning »\n\n\n    Les grands modèles de langage reposent sur des architectures de réseaux\n    neuronaux avancées. Ces réseaux sont spécialement conçus pour traiter de\n    grandes séquences de texte tout en maintenant une compréhension précise du\n    contexte. Cet apprentissage en « deep learning » constitue un atout majeur\n    dans le domaine du traitement automatique du langage naturel (NLP).\n\n\n    La plus connue de ces structures est l’architecture des modèles séquence à\n    séquence (transformers). Cette architecture a révolutionné le NLP grâce à sa\n    capacité à analyser simultanément toutes les parties d’un texte,\n    contrairement aux approches séquentielles qui traitent les mots un par un.\n\n\n    Les modèles séquence à séquence excellent dans le traitement des textes\n    longs. Par exemple, dans une conversation ou un document technique détaillé,\n    ils sont capables de relier des informations distantes dans le texte pour\n    produire des réponses précises et bien argumentées. Cette gestion du\n    contexte est essentielle dans une approche DevSecOps, où les instructions\n    peuvent être complexes et réparties sur plusieurs lignes de code ou étapes\n    de configuration.\n\n\n    ### Génération de texte prédictive\n\n\n    Lorsque l'utilisateur soumet un texte, une requête ou une question, un grand\n    modèle de langage utilise sa capacité de prédiction pour générer la suite la\n    plus probable, fondée sur le contexte fourni.\n\n\n    Le modèle analyse chaque mot, étudie les relations grammaticales et\n    sémantiques, puis sélectionne les termes les plus adaptés pour produire un\n    texte cohérent et informatif. Cette approche permet de générer des réponses\n    précises, détaillées et adaptées au ton attendu.\n\n\n    Dans les environnements DevSecOps, cette capacité devient particulièrement\n    utile pour :\n\n    - **l’assistance au codage** : génération de blocs de code ou de scripts\n    adaptés à des configurations spécifiques.\n\n    - **la résolution de problèmes techniques** : propositions de solutions\n    basées sur des descriptions de bogues ou d’erreurs.\n\n    - **la rédaction de documentations techniques** : création automatique de\n    guides, de manuels ou d'instructions.\n\n\n    La génération de texte prédictive permet ainsi d’automatiser de nombreuses\n    tâches répétitives et d’accélérer le travail des équipes techniques.\n\n\n    ## Applications des grands modèles de langage dans une approche DevSecOps\n\n\n    Avec la montée en puissance de l’automatisation, les grands modèles de\n    langage sont devenus des alliés incontournables pour les équipes techniques.\n    Leur capacité à comprendre et à générer du texte de manière contextuelle\n    leur permet d’intervenir efficacement dans des environnements complexes tels\n    que le [DevSecOps](https://about.gitlab.com/fr-fr/topics/devsecops/\n    \"Qu'est-ce que le DevSecOps ?\").\n\n\n    Grâce à leur puissance d’analyse et leur capacité à s’adapter aux besoins\n    spécifiques, ces modèles offrent des solutions sur mesure pour rationaliser\n    les processus et alléger la charge de travail des équipes techniques.\n\n\n    ### Génération de code automatisée\n\n\n    Les équipes de développement peuvent exploiter les grands modèles de langage\n    pour transformer des spécifications fonctionnelles en code source de manière\n    automatisée.\n\n\n    Grâce à cette capacité, elles peuvent :\n\n\n    - générer des scripts d'automatisation complexes,\n\n    - créer des pipelines CI/CD adaptés aux processus spécifiques de\n    l'entreprise,\n\n    - produire des correctifs de sécurité sur mesure.\n\n    - générer des explications de code et créer une documentation,\n\n    - refactoriser le code en améliorant sa structure et sa lisibilité sans\n    modifier les fonctionnalités,\n\n    - générer des tests.\n\n\n    En s'appuyant sur les LLM, les équipes parviennent à accélérer le\n    développement de leurs logiciels tout en réduisant les risques d'erreurs\n    humaines.\n\n\n    ### Documentation et partage des connaissances améliorés\n\n\n    Ces puissants outils facilitent la création de manuels d'utilisation, de\n    descriptions d'API et de tutoriels sur mesure, parfaitement adaptés au\n    niveau d'expertise de chaque utilisateur. En s’appuyant sur des bases de\n    connaissances existantes, les grands modèles de langages créent des réponses\n    contextuelles aux questions fréquentes. Cela améliore la transmission des\n    savoirs au sein des équipes, accélère l'intégration des nouveaux membres et\n    permet de centraliser les bonnes pratiques.\n\n\n    ### Gestion des incidents et dépannage\n\n\n    Lors d’un incident, les LLM jouent un rôle crucial en analysant en temps\n    réel les logs et les fichiers de trace. Grâce à leur capacité à croiser des\n    informations provenant de multiples sources, ils identifient les anomalies\n    et proposent des solutions fondées sur des incidents similaires passés.\n    Cette approche réduit significativement le temps de diagnostic. De plus, les\n    LLM peuvent automatiser la création de rapports d'incidents détaillés et\n    recommander des actions correctives précises.\n\n\n    ### Création et amélioration des pipelines CI/CD\n\n\n    Les grands modèles de langage révolutionnent la configuration des [pipelines\n    CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/cicd-pipeline/ \"Qu'est-ce\n    qu'un pipeline CI/CD ?\"). Ils peuvent non seulement aider à créer des\n    pipelines, mais aussi à automatiser ce processus et proposer des\n    configurations optimales basées sur des standards de l'industrie. En\n    adaptant les workflows selon vos besoins spécifiques, ils assurent une\n    cohérence parfaite entre les différents environnements de développement. Les\n    tests automatisés sont renforcés par des suggestions pertinentes, limitant\n    ainsi les risques de défaillance. Les LLM surveillent également en continu\n    l’efficacité des pipelines et ajustent les processus pour garantir un\n    déploiement fluide et sans interruption.\n\n\n    ### Sécurité et conformité\n\n\n    Dans un environnement DevSecOps, les grands modèles de langage deviennent\n    des alliés précieux pour la [sécurité et la\n    conformité](https://about.gitlab.com/fr-fr/solutions/application-security-testing/\n    \"Sécurité et conformité\"). Ils analysent le code source à la recherche de\n    vulnérabilités potentielles et génèrent des recommandations correctives\n    détaillées. Les LLM peuvent également surveiller l'application des normes de\n    sécurité en temps réel, produire des rapports de conformité complets et\n    automatiser l'application de correctifs de sécurité dès qu'une faille est\n    identifiée. Cette automatisation renforce la sécurité globale et garantit un\n    respect constant des exigences légales et industrielles.\n\n\n    ## Quels sont les avantages des grands modèles de langage ?\n\n\n    Les grands modèles de langage transforment en profondeur les approches\n    DevOps et DevSecOps, apportant des améliorations substantielles en matière\n    de productivité, de sécurité et de qualité logicielle. En s’intégrant aux\n    workflows existants, les LLM bouleversent les approches traditionnelles en\n    automatisant des tâches complexes et en fournissant des solutions\n    innovantes.\n\n\n    ### Amélioration de la productivité et de l’efficacité\n\n\n    Les grands modèles de langage jouent un rôle central dans l’amélioration de\n    la productivité et de l’efficacité des équipes techniques. En automatisant\n    un large éventail de tâches répétitives, ils libèrent les équipes de\n    développement des opérations routinières. Ces dernières peuvent ainsi se\n    concentrer sur des activités stratégiques à plus forte valeur ajoutée.\n\n\n    En outre, les LLM agissent comme des assistants techniques intelligents\n    capables de fournir instantanément des extraits de code pertinents, adaptés\n    au contexte spécifique de chaque projet. De cette manière, ils réduisent\n    considérablement le temps de recherche en proposant des solutions prêtes à\n    l’emploi pour assister les équipes dans leur travail. Cette assistance\n    ciblée accélère la résolution des problèmes et diminue les interruptions\n    dans les workflows.\n\n\n    Ainsi, la productivité augmente et les projets avancent plus rapidement. Les\n    équipes techniques peuvent prendre en charge un plus grand nombre de tâches\n    sans compromettre la qualité des livrables.\n\n\n    ### Amélioration de la qualité du code et de la sécurité\n\n\n    L’utilisation des grands modèles de langage dans le développement logiciel\n    constitue un levier majeur pour améliorer autant la qualité du code que la\n    sécurité des applications. Grâce à leurs capacités d’analyse avancées, les\n    LLM peuvent examiner le code source ligne par ligne et détecter\n    instantanément les erreurs syntaxiques, incohérences logiques et\n    vulnérabilités potentielles. Leur aptitude à reconnaître le code défectueux\n    permet de recommander des corrections adaptées et conformes aux meilleures\n    pratiques du secteur.\n\n\n    Les LLM jouent aussi un rôle préventif essentiel. Ils excellent dans\n    l'identification des failles de sécurité complexes, souvent difficiles à\n    repérer par les humains. En analysant les dépendances, ils peuvent signaler\n    des bibliothèques obsolètes ou vulnérables, et recommander des versions\n    mises à jour plus sûres. Cette approche contribue au maintien d’un\n    environnement sécurisé et conforme aux normes de sécurité en vigueur.\n\n\n    Au-delà de la correction des erreurs existantes, les LLM proposent des\n    améliorations en suggérant des pratiques de codage et des structures de\n    projet optimisées. Ils peuvent générer du code respectant les normes de\n    sécurité les plus avancées, et ce, dès les premières étapes du\n    développement.\n\n\n    ### Accélération des cycles de développement\n\n\n    Les grands modèles de langage jouent un rôle déterminant dans l’accélération\n    des cycles de développement logiciel en automatisant des tâches clés qui,\n    autrement, mobiliseraient de précieuses ressources humaines.\n\n\n    Les tâches complexes et répétitives, comme l’écriture de fonctions, la\n    création de tests unitaires ou l’implémentation de composants standards,\n    sont automatisées en quelques instants.\n\n\n    Les LLM accélèrent également la phase de validation grâce à leur capacité à\n    suggérer des scénarios de test complets et adaptés. Ils garantissent une\n    couverture de test plus étendue en un minimum de temps, réduisant les\n    risques d’erreurs et facilitant la détection précoce des anomalies. Cette\n    approche préventive raccourcit le cycle de corrections et limite les retards\n    liés aux problèmes de qualité du code.\n\n\n    En simplifiant les tâches techniques et en fournissant des solutions rapides\n    et adaptées, les grands modèles de langage favorisent une réponse plus agile\n    des entreprises aux exigences du marché. Cette accélération du cycle de\n    développement se traduit par des mises à jour plus fréquentes, des\n    itérations plus rapides et une meilleure capacité à adapter les produits aux\n    besoins changeants des utilisateurs.\n\n\n    Les cycles de développement deviennent ainsi plus courts, offrant un\n    avantage stratégique essentiel dans un environnement technologique toujours\n    plus exigeant.\n\n\n    ## Quels sont les défis liés à l’utilisation des LLM ?\n\n\n    Malgré leurs nombreux avantages, les grands modèles de langage présentent\n    certaines limites qui nécessitent une gestion attentive. Leur efficacité\n    dépend fortement de la qualité des données utilisées lors de leur\n    entraînement et de la mise à jour régulière de leurs bases de connaissances.\n    De plus, des problèmes liés aux biais algorithmiques, à la sécurité des\n    données et à la confidentialité peuvent survenir, exposant les entreprises à\n    des risques opérationnels et juridiques. Une supervision humaine rigoureuse\n    demeure indispensable pour garantir la fiabilité des résultats, assurer la\n    conformité réglementaire et éviter les erreurs critiques.\n\n\n    ### Confidentialité et sécurité des données\n\n\n    L’entraînement des LLM repose sur de vastes volumes de données, souvent\n    issues de sources diverses, ce qui soulève des questions quant à la\n    protection des informations confidentielles. Les données sensibles partagées\n    avec des plateformes cloud peuvent donc être exposées à des violations\n    potentielles. Cela inquiète particulièrement les entreprises opérant dans\n    des secteurs réglementés.\n\n\n    En Europe, où des réglementations strictes comme le RGPD régissent la\n    gestion des données, de nombreuses entreprises hésitent à transférer leurs\n    informations vers des services externes. Les exigences réglementaires,\n    associées à la crainte d'une exploitation non autorisée des données\n    sensibles, incitent certaines entreprises à privilégier des solutions\n    auto-hébergées pour conserver un contrôle total sur leurs systèmes.\n\n\n    Des fournisseurs comme GitLab ont mis en place des garanties de sécurité\n    robustes, telles que la non-rétention intentionnelle des données à caractère\n    personnel et le chiffrement de bout en bout. Toutefois, cela peut ne pas\n    suffire pour les clients les plus exigeants, qui préfèrent une maîtrise\n    complète de leurs environnements. La mise en œuvre de solutions hybrides ou\n    sur site devient alors une nécessité stratégique pour répondre aux exigences\n    de sécurité de certaines entreprises.\n\n\n    Pour en savoir plus sur GitLab Duo Self-Hosted, cliquez sur l'image\n    ci-dessous pour accéder à la visite guidée.\n\n\n    \u003Ca href=\"https://gitlab.navattic.com/gitlab-duo-self-hosted\">\u003Cimg\n    src=\"https://res.cloudinary.com/about-gitlab-com/image/upload/v1752176132/Blog/chn5c0bsfauypnjfhmxv.png\"\n    alt=\"GitLab Duo Self-Hosted Product Tour\">\u003C/a>\n\n\n    ### Précision et fiabilité\n\n\n    Bien que les grands modèles de langage soient capables de générer des\n    résultats impressionnants, leur performance n’est pas infaillible. Ils\n    peuvent produire des réponses incorrectes, incomplètes ou incohérentes.\n    Cette imprécision devient particulièrement problématique dans le cadre de\n    tâches critiques comme la génération de code de sécurité ou l'analyse de\n    données sensibles.\n\n\n    De plus, les LLM fonctionnent sur la base de modèles probabilistes, ce qui\n    signifie qu’ils ne « comprennent » pas véritablement le contenu qu'ils\n    traitent, mais produisent des prédictions basées sur des probabilités\n    statistiques. Cela peut entraîner des recommandations techniquement\n    incorrectes, voire dangereuses, lorsqu'elles sont utilisées sans validation\n    humaine.\n\n\n    Pour éviter ces pièges, il est essentiel de maintenir une supervision\n    constante et d’établir des processus de validation rigoureux. Les résultats\n    fournis par les LLM doivent alors toujours être examinés par des humains\n    avant leur intégration dans des systèmes critiques.\n\n\n    Une stratégie de mise à jour régulière des modèles, associée à une\n    surveillance humaine proactive, permet de réduire les erreurs et d'améliorer\n    progressivement la fiabilité des résultats.\n\n\n    ## Comment GitLab utilise les LLM pour ses fonctionnalités GitLab Duo ?\n\n\n    [GitLab Duo](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/ \"Qu'est-ce que\n    GitLab Duo ? \") exploite la puissance des grands modèles de langage pour\n    transformer les processus DevSecOps en intégrant des fonctionnalités\n    alimentées par l’IA, et ce, tout au long du cycle de vie du développement\n    logiciel. Cette approche vise à améliorer la productivité, renforcer la\n    sécurité et automatiser des tâches complexes afin de permettre aux équipes\n    de développement de se concentrer sur des tâches à forte valeur ajoutée.\n\n\n    ### Une assistance IA pour le développement logiciel\n\n\n    GitLab Duo propose un soutien continu tout au long du cycle de développement\n    logiciel grâce à des recommandations en temps réel. Les équipes de\n    développement peuvent automatiquement générer des tests unitaires, obtenir\n    des explications détaillées sur des segments de code complexes et bénéficier\n    de suggestions pour améliorer la qualité de leur code.\n\n\n    ### Analyse proactive des défaillances CI/CD\n\n\n    L’une des fonctionnalités clés de GitLab Duo est son assistance à l'analyse\n    des échecs des jobs CI/CD. Grâce au LLM et l’IA, les équipes parviennent à\n    identifier rapidement les sources d'erreurs dans leurs pipelines\n    d’intégration et de déploiement continus.\n\n\n    ### Sécurité du code renforcée\n\n\n    GitLab Duo intègre des fonctionnalités de sécurité basées sur l’IA. Le\n    système détecte les vulnérabilités dans le code source et propose des\n    correctifs détaillés pour en réduire les risques. Les équipes reçoivent des\n    explications claires sur la nature des failles identifiées et peuvent\n    appliquer des correctifs automatisés via des [merge\n    requests](https://docs.gitlab.com/user/project/merge_requests/ \"Merge\n    request\") générées directement par GitLab Duo. Cette fonctionnalité permet\n    de sécuriser le développement sans pour autant ralentir les cycles de\n    développement.\n\n\n    Pour en savoir plus sur cette fonctionnalité, cliquez sur l'image ci-dessous\n    pour accéder à notre visite guidée.\n\n\n    \u003Ca href=\"https://gitlab.navattic.com/ve-vr-short\">\u003Cimg\n    src=\"https://res.cloudinary.com/about-gitlab-com/image/upload/v1752176145/Blog/bhpatrqtajlcys0lnjwe.png\"\n    alt=\"GitLab Vulnerability Report Product Tour\">\u003C/a>\n\n\n    #### Fonctionnalités clés de GitLab Duo\n\n\n    - [GitLab Duo\n    Chat](https://about.gitlab.com/fr-fr/blog/10-best-practices-for-using-ai-powered-gitlab-duo-chat/\n    \"GitLab Duo Chat\") : cette fonctionnalité conversationnelle traite et génère\n    du texte et du code de manière intuitive. Elle permet aux utilisateurs de\n    rechercher rapidement des informations pertinentes dans des volumes\n    importants de texte, notamment dans les tickets, les\n    [epics](https://docs.gitlab.com/user/group/epics/ \"Epics\"), le code\n    source et la [documentation GitLab](https://docs.gitlab.com/ \"Documentation\n    GitLab\").\n\n\n    - [GitLab Duo\n    Self-Hosted](https://about.gitlab.com/fr-fr/blog/gitlab-duo-self-hosted-enterprise-ai-built-for-data-privacy/\n    \"GitLab Duo Self-Hosted\") : GitLab Duo Self-Hosted permet aux entreprises\n    ayant des exigences strictes en matière de confidentialité de leurs données\n    de bénéficier des fonctionnalités d’IA de GitLab Duo avec une flexibilité\n    dans le choix du déploiement et des LLM parmi une liste d’options\n    supportées.\n\n\n    - [Suggestions de\n    code](https://docs.gitlab.com/user/project/repository/code_suggestions/\n    \"Suggestions de code\") : les équipes de développement bénéficient de\n    suggestions de code automatisées, ce qui leur permet d'écrire du code\n    sécurisé plus rapidement. Les tâches de codage répétitives et routinières\n    sont ainsi automatisées, accélérant considérablement les cycles de\n    développement logiciel.\n\n\n    GitLab Duo ne se limite pas à ces fonctionnalités. Il offre une gamme\n    étendue de fonctionnalités destinées à simplifier et à optimiser le\n    développement logiciel. Que ce soit pour automatiser des tests, améliorer la\n    collaboration entre les équipes ou renforcer la sécurité des projets, GitLab\n    Duo constitue une solution complète pour des processus DevSecOps\n    intelligents et efficaces.\n\n\n    Pour en savoir plus sur GitLab Duo Enterprise, cliquez sur l'image\n    ci-dessous pour accéder à notre visite guidée.\n\n\n    \u003Ca href=\"https://gitlab.navattic.com/duo-enterprise\">\u003Cimg\n    src=\"https://res.cloudinary.com/about-gitlab-com/image/upload/v1752175911/Blog/b5gdnls7jdyrpeyjby5j.png\"\n    alt=\"GitLab Duo Enterprise Product Tour\">\u003C/a>\n  category: ai-ml\n  tags:\n    - AI/ML\n    - DevSecOps\nconfig:\n  slug: large-language-model\n  featured: false\n  template: BlogPost\n",{"title":5,"description":17,"ogTitle":5,"ogDescription":17,"noIndex":14,"ogImage":19,"ogUrl":31,"ogSiteName":32,"ogType":33,"canonicalUrls":31},"https://about.gitlab.com/blog/large-language-model","https://about.gitlab.com","article","fr-fr/blog/large-language-model",[36,37],"aiml","devsecops",[22,23],"_KgOy_7sV6EjPWFyyGN8uc5ZauLjOwfHi6iEYsDfq7M",{"data":41},{"logo":42,"freeTrial":47,"sales":52,"login":57,"items":62,"search":372,"minimal":407,"duo":426,"switchNav":435,"pricingDeployment":446},{"config":43},{"href":44,"dataGaName":45,"dataGaLocation":46},"/fr-fr/","gitlab logo","header",{"text":48,"config":49},"Commencer un essai gratuit",{"href":50,"dataGaName":51,"dataGaLocation":46},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/fr-fr&glm_content=default-saas-trial/","free trial",{"text":53,"config":54},"Contacter l'équipe commerciale",{"href":55,"dataGaName":56,"dataGaLocation":46},"/fr-fr/sales/","sales",{"text":58,"config":59},"Connexion",{"href":60,"dataGaName":61,"dataGaLocation":46},"https://gitlab.com/users/sign_in/","sign in",[63,90,187,192,293,353],{"text":64,"config":65,"cards":67},"Plateforme",{"dataNavLevelOne":66},"platform",[68,74,82],{"title":64,"description":69,"link":70},"La plateforme d'orchestration intelligente pour le DevSecOps",{"text":71,"config":72},"Explorer notre plateforme",{"href":73,"dataGaName":66,"dataGaLocation":46},"/fr-fr/platform/",{"title":75,"description":76,"link":77},"GitLab Duo Agent Platform","L'IA agentique pour l'ensemble du cycle de développement logiciel",{"text":78,"config":79},"Découvrir GitLab Duo",{"href":80,"dataGaName":81,"dataGaLocation":46},"/fr-fr/gitlab-duo-agent-platform/","gitlab duo agent platform",{"title":83,"description":84,"link":85},"Pourquoi GitLab ?","Découvrez les principales raisons pour lesquelles les entreprises choisissent GitLab",{"text":86,"config":87},"En savoir plus",{"href":88,"dataGaName":89,"dataGaLocation":46},"/fr-fr/why-gitlab/","why gitlab",{"text":91,"left":27,"config":92,"link":94,"lists":98,"footer":169},"Produit",{"dataNavLevelOne":93},"solutions",{"text":95,"config":96},"Voir toutes les solutions",{"href":97,"dataGaName":93,"dataGaLocation":46},"/fr-fr/solutions/",[99,124,147],{"title":100,"description":101,"link":102,"items":107},"Automatisation","CI/CD et automatisation pour accélérer le déploiement",{"config":103},{"icon":104,"href":105,"dataGaName":106,"dataGaLocation":46},"AutomatedCodeAlt","/fr-fr/solutions/delivery-automation/","automated software delivery",[108,112,115,120],{"text":109,"config":110},"CI/CD",{"href":111,"dataGaLocation":46,"dataGaName":109},"/fr-fr/solutions/continuous-integration/",{"text":75,"config":113},{"href":80,"dataGaLocation":46,"dataGaName":114},"gitlab duo agent platform - product menu",{"text":116,"config":117},"Gestion du code source",{"href":118,"dataGaLocation":46,"dataGaName":119},"/fr-fr/solutions/source-code-management/","Source Code Management",{"text":121,"config":122},"Livraison de logiciels automatisée",{"href":105,"dataGaLocation":46,"dataGaName":123},"Automated software delivery",{"title":125,"description":126,"link":127,"items":132},"Sécurité","Livrez du code plus rapidement sans compromettre la sécurité",{"config":128},{"href":129,"dataGaName":130,"dataGaLocation":46,"icon":131},"/fr-fr/solutions/application-security-testing/","security and compliance","ShieldCheckLight",[133,137,142],{"text":134,"config":135},"Tests de sécurité des applications",{"href":129,"dataGaName":136,"dataGaLocation":46},"Application security testing",{"text":138,"config":139},"Sécurité de la chaîne d'approvisionnement logicielle",{"href":140,"dataGaLocation":46,"dataGaName":141},"/fr-fr/solutions/supply-chain/","Software supply chain security",{"text":143,"config":144},"Conformité logicielle",{"href":145,"dataGaName":146,"dataGaLocation":46},"/fr-fr/solutions/software-compliance/","software compliance",{"title":148,"link":149,"items":154},"Mesures",{"config":150},{"icon":151,"href":152,"dataGaName":153,"dataGaLocation":46},"DigitalTransformation","/fr-fr/solutions/visibility-measurement/","visibility and measurement",[155,159,164],{"text":156,"config":157},"Visibilité et mesures",{"href":152,"dataGaLocation":46,"dataGaName":158},"Visibility and Measurement",{"text":160,"config":161},"Gestion de la chaîne de valeur",{"href":162,"dataGaLocation":46,"dataGaName":163},"/fr-fr/solutions/value-stream-management/","Value Stream Management",{"text":165,"config":166},"Données d'analyse et informations clés",{"href":167,"dataGaLocation":46,"dataGaName":168},"/fr-fr/solutions/analytics-and-insights/","Analytics and insights",{"title":170,"items":171},"GitLab",[172,177,182],{"text":173,"config":174},"Pour les entreprises",{"href":175,"dataGaLocation":46,"dataGaName":176},"/fr-fr/enterprise/","enterprise",{"text":178,"config":179},"Pour les PME",{"href":180,"dataGaLocation":46,"dataGaName":181},"/fr-fr/small-business/","small business",{"text":183,"config":184},"Pour le secteur public",{"href":185,"dataGaLocation":46,"dataGaName":186},"/fr-fr/solutions/public-sector/","public sector",{"text":188,"config":189},"Tarifs",{"href":190,"dataGaName":191,"dataGaLocation":46,"dataNavLevelOne":191},"/fr-fr/pricing/","pricing",{"text":193,"config":194,"link":196,"lists":200,"feature":280},"Ressources",{"dataNavLevelOne":195},"resources",{"text":197,"config":198},"Afficher toutes les ressources",{"href":199,"dataGaName":195,"dataGaLocation":46},"/fr-fr/resources/",[201,234,252],{"title":202,"items":203},"Premiers pas",[204,209,214,219,224,229],{"text":205,"config":206},"Installation",{"href":207,"dataGaName":208,"dataGaLocation":46},"/fr-fr/install/","install",{"text":210,"config":211},"Guides de démarrage",{"href":212,"dataGaName":213,"dataGaLocation":46},"/fr-fr/get-started/","quick setup checklists",{"text":215,"config":216},"Apprentissage",{"href":217,"dataGaLocation":46,"dataGaName":218},"https://university.gitlab.com/","learn",{"text":220,"config":221},"Documentation",{"href":222,"dataGaName":223,"dataGaLocation":46},"https://docs.gitlab.com/","product documentation",{"text":225,"config":226},"Vidéos sur les bonnes pratiques",{"href":227,"dataGaName":228,"dataGaLocation":46},"/fr-fr/getting-started-videos/","best practice videos",{"text":230,"config":231},"Intégrations",{"href":232,"dataGaName":233,"dataGaLocation":46},"/fr-fr/integrations/","integrations",{"title":235,"items":236},"Découvrir",[237,242,247],{"text":238,"config":239},"Témoignages clients",{"href":240,"dataGaName":241,"dataGaLocation":46},"/fr-fr/customers/","customer success stories",{"text":243,"config":244},"Blog",{"href":245,"dataGaName":246,"dataGaLocation":46},"/fr-fr/blog/","blog",{"text":248,"config":249},"Travail à distance",{"href":250,"dataGaName":251,"dataGaLocation":46},"https://handbook.gitlab.com/handbook/company/culture/all-remote/","remote",{"title":253,"items":254},"Connecter",[255,260,265,270,275],{"text":256,"config":257},"Services GitLab",{"href":258,"dataGaName":259,"dataGaLocation":46},"/fr-fr/services/","services",{"text":261,"config":262},"Communauté",{"href":263,"dataGaName":264,"dataGaLocation":46},"/community/","community",{"text":266,"config":267},"Forum",{"href":268,"dataGaName":269,"dataGaLocation":46},"https://forum.gitlab.com/","forum",{"text":271,"config":272},"Événements",{"href":273,"dataGaName":274,"dataGaLocation":46},"/events/","events",{"text":276,"config":277},"Partenaires",{"href":278,"dataGaName":279,"dataGaLocation":46},"/fr-fr/partners/","partners",{"background":281,"textColor":282,"text":283,"image":284,"link":288},"#2f2a6b","#fff","L'avenir du développement logiciel. Tendances et perspectives.",{"altText":285,"config":286},"carte promo The Source",{"src":287},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758208064/dzl0dbift9xdizyelkk4.svg",{"text":289,"config":290},"Lire les articles les plus récents",{"href":291,"dataGaName":292,"dataGaLocation":46},"/fr-fr/the-source/","the source",{"text":294,"config":295,"lists":297},"Société",{"dataNavLevelOne":296},"company",[298],{"items":299},[300,305,311,313,318,323,328,333,338,343,348],{"text":301,"config":302},"À propos",{"href":303,"dataGaName":304,"dataGaLocation":46},"/fr-fr/company/","about",{"text":306,"config":307,"footerGa":310},"Carrières",{"href":308,"dataGaName":309,"dataGaLocation":46},"/jobs/","jobs",{"dataGaName":309},{"text":271,"config":312},{"href":273,"dataGaName":274,"dataGaLocation":46},{"text":314,"config":315},"Leadership",{"href":316,"dataGaName":317,"dataGaLocation":46},"/company/team/e-group/","leadership",{"text":319,"config":320},"Équipe",{"href":321,"dataGaName":322,"dataGaLocation":46},"/company/team/","team",{"text":324,"config":325},"Manuel",{"href":326,"dataGaName":327,"dataGaLocation":46},"https://handbook.gitlab.com/","handbook",{"text":329,"config":330},"Relations avec les investisseurs",{"href":331,"dataGaName":332,"dataGaLocation":46},"https://ir.gitlab.com/","investor relations",{"text":334,"config":335},"Trust Center",{"href":336,"dataGaName":337,"dataGaLocation":46},"/fr-fr/security/","trust center",{"text":339,"config":340},"Centre pour la transparence de l'IA",{"href":341,"dataGaName":342,"dataGaLocation":46},"/fr-fr/ai-transparency-center/","ai transparency center",{"text":344,"config":345},"Newsletter",{"href":346,"dataGaName":347,"dataGaLocation":46},"/company/contact/#contact-forms","newsletter",{"text":349,"config":350},"Presse",{"href":351,"dataGaName":352,"dataGaLocation":46},"/press/","press",{"text":354,"config":355,"lists":356},"Nous contacter",{"dataNavLevelOne":296},[357],{"items":358},[359,362,367],{"text":53,"config":360},{"href":55,"dataGaName":361,"dataGaLocation":46},"talk to sales",{"text":363,"config":364},"Assistance GitLab",{"href":365,"dataGaName":366,"dataGaLocation":46},"https://support.gitlab.com","support portal",{"text":368,"config":369},"Portail clients GitLab",{"href":370,"dataGaName":371,"dataGaLocation":46},"https://customers.gitlab.com/customers/sign_in/","customer portal",{"close":373,"login":374,"suggestions":381},"Fermer",{"text":375,"link":376},"Pour rechercher des dépôts et des projets, connectez-vous à",{"text":377,"config":378},"GitLab.com",{"href":60,"dataGaName":379,"dataGaLocation":380},"search login","search",{"text":382,"default":383},"Suggestions",[384,386,391,393,398,403],{"text":75,"config":385},{"href":80,"dataGaName":75,"dataGaLocation":380},{"text":387,"config":388},"Suggestions de code (IA)",{"href":389,"dataGaName":390,"dataGaLocation":380},"/fr-fr/solutions/code-suggestions/","Code Suggestions (AI)",{"text":109,"config":392},{"href":111,"dataGaName":109,"dataGaLocation":380},{"text":394,"config":395},"GitLab sur AWS",{"href":396,"dataGaName":397,"dataGaLocation":380},"/fr-fr/partners/technology-partners/aws/","GitLab on AWS",{"text":399,"config":400},"GitLab sur Google Cloud",{"href":401,"dataGaName":402,"dataGaLocation":380},"/fr-fr/partners/technology-partners/google-cloud-platform/","GitLab on Google Cloud",{"text":404,"config":405},"Pourquoi utiliser GitLab ?",{"href":88,"dataGaName":406,"dataGaLocation":380},"Why GitLab?",{"freeTrial":408,"mobileIcon":413,"desktopIcon":418,"secondaryButton":421},{"text":409,"config":410},"Commencer votre essai gratuit",{"href":411,"dataGaName":51,"dataGaLocation":412},"https://gitlab.com/-/trials/new/","nav",{"altText":414,"config":415},"Icône GitLab",{"src":416,"dataGaName":417,"dataGaLocation":412},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203874/jypbw1jx72aexsoohd7x.svg","gitlab icon",{"altText":414,"config":419},{"src":420,"dataGaName":417,"dataGaLocation":412},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203875/gs4c8p8opsgvflgkswz9.svg",{"text":422,"config":423},"Commencer",{"href":424,"dataGaName":425,"dataGaLocation":412},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/fr-fr/get-started/","get started",{"freeTrial":427,"mobileIcon":431,"desktopIcon":433},{"text":428,"config":429},"En savoir plus sur GitLab Duo",{"href":80,"dataGaName":430,"dataGaLocation":412},"gitlab duo",{"altText":414,"config":432},{"src":416,"dataGaName":417,"dataGaLocation":412},{"altText":414,"config":434},{"src":420,"dataGaName":417,"dataGaLocation":412},{"button":436,"mobileIcon":441,"desktopIcon":443},{"text":437,"config":438},"/switch",{"href":439,"dataGaName":440,"dataGaLocation":412},"#contact","switch",{"altText":414,"config":442},{"src":416,"dataGaName":417,"dataGaLocation":412},{"altText":414,"config":444},{"src":445,"dataGaName":417,"dataGaLocation":412},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1773335277/ohhpiuoxoldryzrnhfrh.png",{"freeTrial":447,"mobileIcon":452,"desktopIcon":454},{"text":448,"config":449},"Retour aux tarifs",{"href":190,"dataGaName":450,"dataGaLocation":412,"icon":451},"back to pricing","GoBack",{"altText":414,"config":453},{"src":416,"dataGaName":417,"dataGaLocation":412},{"altText":414,"config":455},{"src":420,"dataGaName":417,"dataGaLocation":412},{"title":457,"button":458,"config":463},"Découvrez comment l'IA agentique transforme la livraison logicielle",{"text":459,"config":460},"Regarder GitLab Transcend maintenant",{"href":461,"dataGaName":462,"dataGaLocation":46},"/fr-fr/events/transcend/virtual/","transcend event",{"layout":464,"icon":465,"disabled":27},"release","AiStar",{"data":467},{"text":468,"source":469,"edit":475,"contribute":480,"config":485,"items":490,"minimal":693},"Git est une marque déposée de Software Freedom Conservancy et notre utilisation de « GitLab » est sous licence.",{"text":470,"config":471},"Afficher le code source de la page",{"href":472,"dataGaName":473,"dataGaLocation":474},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/","page source","footer",{"text":476,"config":477},"Modifier cette page",{"href":478,"dataGaName":479,"dataGaLocation":474},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/content/","web ide",{"text":481,"config":482},"Veuillez contribuer",{"href":483,"dataGaName":484,"dataGaLocation":474},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/CONTRIBUTING.md/","please contribute",{"twitter":486,"facebook":487,"youtube":488,"linkedin":489},"https://twitter.com/gitlab","https://www.facebook.com/gitlab","https://www.youtube.com/channel/UCnMGQ8QHMAnVIsI3xJrihhg","https://www.linkedin.com/company/gitlab-com",[491,536,587,631,658],{"title":188,"links":492,"subMenu":507},[493,497,502],{"text":494,"config":495},"Voir les forfaits",{"href":190,"dataGaName":496,"dataGaLocation":474},"view plans",{"text":498,"config":499},"GitLab Premium",{"href":500,"dataGaName":501,"dataGaLocation":474},"/fr-fr/pricing/premium/","why premium",{"text":503,"config":504},"GitLab Ultimate",{"href":505,"dataGaName":506,"dataGaLocation":474},"/fr-fr/pricing/ultimate/","why ultimate",[508],{"title":354,"links":509},[510,512,514,516,521,526,531],{"text":53,"config":511},{"href":55,"dataGaName":56,"dataGaLocation":474},{"text":363,"config":513},{"href":365,"dataGaName":366,"dataGaLocation":474},{"text":368,"config":515},{"href":370,"dataGaName":371,"dataGaLocation":474},{"text":517,"config":518},"Statut",{"href":519,"dataGaName":520,"dataGaLocation":474},"https://status.gitlab.com/","status",{"text":522,"config":523},"Conditions d'utilisation",{"href":524,"dataGaName":525,"dataGaLocation":474},"/terms/","terms of use",{"text":527,"config":528},"Politique de confidentialité",{"href":529,"dataGaName":530,"dataGaLocation":474},"/fr-fr/privacy/","privacy statement",{"text":532,"config":533},"Gérer vos cookies",{"dataGaName":534,"dataGaLocation":474,"id":535,"isOneTrustButton":27},"cookie preferences","ot-sdk-btn",{"title":91,"links":537,"subMenu":546},[538,542],{"text":539,"config":540},"Plateforme DevSecOps",{"href":73,"dataGaName":541,"dataGaLocation":474},"devsecops platform",{"text":543,"config":544},"Développement assisté par l'IA",{"href":80,"dataGaName":545,"dataGaLocation":474},"ai-assisted development",[547],{"title":548,"links":549},"Thèmes",[550,554,559,564,569,572,577,582],{"text":109,"config":551},{"href":552,"dataGaName":553,"dataGaLocation":474},"/fr-fr/topics/ci-cd/","cicd",{"text":555,"config":556},"GitOps",{"href":557,"dataGaName":558,"dataGaLocation":474},"/fr-fr/topics/gitops/","gitops",{"text":560,"config":561},"DevOps",{"href":562,"dataGaName":563,"dataGaLocation":474},"/fr-fr/topics/devops/","devops",{"text":565,"config":566},"Contrôle de version",{"href":567,"dataGaName":568,"dataGaLocation":474},"/fr-fr/topics/version-control/","version control",{"text":23,"config":570},{"href":571,"dataGaName":37,"dataGaLocation":474},"/fr-fr/topics/devsecops/",{"text":573,"config":574},"Cloud-native",{"href":575,"dataGaName":576,"dataGaLocation":474},"/fr-fr/topics/cloud-native/","cloud native",{"text":578,"config":579},"IA pour la programmation",{"href":580,"dataGaName":581,"dataGaLocation":474},"/fr-fr/topics/devops/ai-for-coding/","ai for coding",{"text":583,"config":584},"IA agentique",{"href":585,"dataGaName":586,"dataGaLocation":474},"/fr-fr/topics/agentic-ai/","agentic ai",{"title":588,"links":589},"Solutions",[590,593,595,600,603,606,609,612,615,618,621,626],{"text":134,"config":591},{"href":129,"dataGaName":592,"dataGaLocation":474},"Application Security Testing",{"text":121,"config":594},{"href":105,"dataGaName":106,"dataGaLocation":474},{"text":596,"config":597},"Développement Agile",{"href":598,"dataGaName":599,"dataGaLocation":474},"/fr-fr/solutions/agile-delivery/","agile delivery",{"text":116,"config":601},{"href":118,"dataGaName":602,"dataGaLocation":474},"source code management",{"text":109,"config":604},{"href":111,"dataGaName":605,"dataGaLocation":474},"continuous integration & delivery",{"text":160,"config":607},{"href":162,"dataGaName":608,"dataGaLocation":474},"value stream management",{"text":555,"config":610},{"href":611,"dataGaName":558,"dataGaLocation":474},"/fr-fr/solutions/gitops/",{"text":613,"config":614},"Entreprises",{"href":175,"dataGaName":176,"dataGaLocation":474},{"text":616,"config":617},"PME",{"href":180,"dataGaName":181,"dataGaLocation":474},{"text":619,"config":620},"Secteur public",{"href":185,"dataGaName":186,"dataGaLocation":474},{"text":622,"config":623},"Éducation",{"href":624,"dataGaName":625,"dataGaLocation":474},"/fr-fr/solutions/education/","education",{"text":627,"config":628},"Services financiers",{"href":629,"dataGaName":630,"dataGaLocation":474},"/fr-fr/solutions/finance/","financial services",{"title":193,"links":632},[633,635,637,639,642,644,646,648,650,652,654,656],{"text":205,"config":634},{"href":207,"dataGaName":208,"dataGaLocation":474},{"text":210,"config":636},{"href":212,"dataGaName":213,"dataGaLocation":474},{"text":215,"config":638},{"href":217,"dataGaName":218,"dataGaLocation":474},{"text":220,"config":640},{"href":222,"dataGaName":641,"dataGaLocation":474},"docs",{"text":243,"config":643},{"href":245,"dataGaName":246,"dataGaLocation":474},{"text":238,"config":645},{"href":240,"dataGaName":241,"dataGaLocation":474},{"text":248,"config":647},{"href":250,"dataGaName":251,"dataGaLocation":474},{"text":256,"config":649},{"href":258,"dataGaName":259,"dataGaLocation":474},{"text":261,"config":651},{"href":263,"dataGaName":264,"dataGaLocation":474},{"text":266,"config":653},{"href":268,"dataGaName":269,"dataGaLocation":474},{"text":271,"config":655},{"href":273,"dataGaName":274,"dataGaLocation":474},{"text":276,"config":657},{"href":278,"dataGaName":279,"dataGaLocation":474},{"title":294,"links":659},[660,662,664,666,668,670,672,677,682,684,686,688],{"text":301,"config":661},{"href":303,"dataGaName":296,"dataGaLocation":474},{"text":306,"config":663},{"href":308,"dataGaName":309,"dataGaLocation":474},{"text":314,"config":665},{"href":316,"dataGaName":317,"dataGaLocation":474},{"text":319,"config":667},{"href":321,"dataGaName":322,"dataGaLocation":474},{"text":324,"config":669},{"href":326,"dataGaName":327,"dataGaLocation":474},{"text":329,"config":671},{"href":331,"dataGaName":332,"dataGaLocation":474},{"text":673,"config":674},"Développement durable",{"href":675,"dataGaName":676,"dataGaLocation":474},"/sustainability/","Sustainability",{"text":678,"config":679},"Diversité, inclusion et appartenance (DIB)",{"href":680,"dataGaName":681,"dataGaLocation":474},"/fr-fr/diversity-inclusion-belonging/","Diversity, inclusion and belonging",{"text":334,"config":683},{"href":336,"dataGaName":337,"dataGaLocation":474},{"text":344,"config":685},{"href":346,"dataGaName":347,"dataGaLocation":474},{"text":349,"config":687},{"href":351,"dataGaName":352,"dataGaLocation":474},{"text":689,"config":690},"Déclaration de transparence sur l'esclavage moderne",{"href":691,"dataGaName":692,"dataGaLocation":474},"https://handbook.gitlab.com/handbook/legal/modern-slavery-act-transparency-statement/","modern slavery transparency statement",{"items":694},[695,697,700],{"text":522,"config":696},{"href":524,"dataGaName":525,"dataGaLocation":474},{"text":698,"config":699},"Gestion des cookies",{"dataGaName":534,"dataGaLocation":474,"id":535,"isOneTrustButton":27},{"text":527,"config":701},{"href":529,"dataGaName":530,"dataGaLocation":474},[703],{"id":704,"title":705,"body":25,"config":706,"content":708,"description":25,"extension":24,"meta":712,"navigation":27,"path":713,"seo":714,"stem":715,"__hash__":716},"blogAuthors/en-us/blog/authors/gitlab-france-team.yml","Gitlab France Team",{"template":707},"BlogAuthor",{"name":9,"config":709},{"headshot":710,"ctfId":711},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1749659488/Blog/Author%20Headshots/gitlab-logo-extra-whitespace.png","1gfblqN0ibYIuWGk7MOTny",{},"/en-us/blog/authors/gitlab-france-team",{},"en-us/blog/authors/gitlab-france-team","Eni-wcJbgxSvctiz4Yjf4UeRk6T6IWt1wK0KuHU907U",[718,731,746],{"content":719,"config":729},{"title":720,"description":721,"authors":722,"heroImage":724,"date":725,"body":726,"category":11,"tags":727},"GitLab et Anthropic : l'IA gouvernée pour le développement en entreprise","GitLab renforce son intégration d'Anthropic Claude avec une IA gouvernée, de nouveaux modèles et une flexibilité cloud pour le développement logiciel en entreprise.",[723],"Stuart Moncada","https://res.cloudinary.com/about-gitlab-com/image/upload/v1776457632/llddiylsgwuze0u1rjks.png","2026-04-28","Les dirigeants d'entreprise et du [secteur public](https://about.gitlab.com/fr-fr/solutions/public-sector/) connaissent bien ce dilemme : les équipes de développement doivent travailler plus vite avec l'IA, tandis que les exigences en matière de sécurité, de conformité et de réglementation ne cessent de se renforcer. GitLab renforce son intégration d'Anthropic Claude afin de donner aux organisations accès aux derniers modèles Claude au sein de la [plateforme d'orchestration intelligente de GitLab](https://about.gitlab.com/fr-fr/), où la gouvernance, la conformité et la traçabilité sont déjà intégrées.\n\nClaude alimente les fonctionnalités de [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/) en tant que modèle par défaut prêt à l'emploi et couvre un large éventail de cas d'utilisation : génération et revue de code, chat agentique et résolution de vulnérabilités. Si vous avez déjà utilisé GitLab Duo, vous avez pu constater comment les agents GitLab Duo automatisent les workflows sur l'ensemble du cycle de développement logiciel ([SDLC](https://about.gitlab.com/fr-fr/blog/what-is-sdlc/ \"Qu'est-ce que le SDLC ?\")).\n\nCette évolution accélère l'intégration des capacités de Claude dans GitLab, élargit les modalités de déploiement pour les entreprises et renforce ce qui distingue fondamentalement GitLab en tant que plateforme de développement logiciel : la gouvernance, la conformité et la traçabilité intégrées à chaque interaction avec l'IA.\n\n> « GitLab Duo a accéléré la façon dont nos équipes planifient, développent et livrent des logiciels. La combinaison d'Anthropic Claude et de la plateforme GitLab nous permet de bénéficier d'une IA plus performante, sans modifier nos méthodes de travail ni notre framework de gouvernance. »\n>\n> – Mans Booijink, Operations Manager, Cube\n\n## Le véritable atout : l'IA gouvernée\n\nAvec GitLab, les contrôles de gouvernance et les mécanismes d'audit sont intégrés au SDLC. Lorsque Claude propose une modification de code via GitLab Duo Agent Platform, cette suggestion suit le même processus de merge request, les mêmes règles d'approbation, les mêmes scans de sécurité et la même piste d'audit que toute autre modification. L'IA ne contourne pas vos contrôles : elle s'y conforme.\n\nÀ mesure que GitLab s'engage davantage dans le développement logiciel agentique, où l'IA prend en charge de manière autonome des tâches bien définies, la couche de gouvernance devient encore plus déterminante. Un agent d'IA capable d'ouvrir une merge request, d'aider à résoudre une vulnérabilité ou de refactoriser un service doit être auditable, imputable et soumis aux mêmes règles que celles appliquées aux équipes de développement. Cette exigence est un choix architectural que GitLab a fait dès le départ, et dont l'importance ne fait que croître à mesure que les agents d'IA assument des responsabilités plus étendues.\n\n## Flexibilité de déploiement pour les entreprises\n\nCette collaboration élargit également les modalités d'accès aux derniers modèles Claude via GitLab. Claude est disponible dans GitLab via Vertex AI de Google Cloud et AWS Bedrock, ce qui permet aux entreprises d'acheminer leurs charges de travail d'IA à travers les engagements des hyperscaler et les frameworks de gouvernance cloud déjà en place, sans contrat fournisseur supplémentaire ni remise en question de la résidence des données. Votre relation existante avec Google Cloud Platform ou AWS constitue le point d'entrée.\n\nGitLab est désormais également disponible sur [Claude Marketplace](https://claude.com/fr-fr/platform/marketplace), où les clients peuvent acheter des GitLab Credits et les imputer sur leurs engagements de dépenses Anthropic existants afin de consolider les dépenses en IA et de simplifier la façon dont les équipes découvrent et utilisent GitLab parallèlement à leurs investissements Anthropic.\n\n## Vers un avenir agentique\n\nLa vision de GitLab pour le développement logiciel agentique, où l'IA prend en charge de manière autonome des tâches définies couvrant la planification, le codage, les tests, la sécurisation et le déploiement, exige des modèles dotés de solides capacités de raisonnement, de fiabilité et de sécurité. Elle requiert également une plateforme dans laquelle ces actions autonomes sont entièrement gouvernées.\n\nLes workflows agentiques nécessitent des modèles alliant raisonnement, fiabilité et sécurité, des critères qui guident la manière dont GitLab sélectionne et intègre ses partenaires en matière de modèles d'IA. Le framework de gouvernance de GitLab contribue à garantir que, à mesure que les agents d'IA prennent en charge des tâches de développement plus avancées, les entreprises conservent une visibilité et un contrôle complets sur ce que font ces agents, le moment où ils agissent et la façon dont les modifications sont suivies.\n\n## Ce que cela signifie pour les clients GitLab\n\nSi vous utilisez déjà GitLab Duo Agent Platform, vous bénéficierez d'un accès aux modèles Claude et d'une assistance IA approfondie sur l'ensemble de votre cycle de développement logiciel, le tout dans le framework de gouvernance sur lequel vous vous appuyez déjà.\n\nSi vous évaluez des plateformes de développement logiciel basées sur l'IA, vous ne devriez pas avoir à choisir entre des capacités d'IA avancées et le contrôle en entreprise. Cette intégration stratégique est conçue pour offrir les deux.\n\n> Vous souhaitez en savoir plus sur GitLab Duo Agent Platform ? [Demandez une démonstration ou commencez un essai gratuit dès aujourd'hui](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr).",[22,728,279],"product",{"featured":27,"template":15,"slug":730},"gitlab-and-anthropic-governed-ai-for-enterprise-development",{"content":732,"config":744},{"title":733,"description":734,"authors":735,"body":738,"heroImage":739,"date":740,"category":11,"tags":741},"GitLab et Vertex AI sur Google Cloud : vers un développement logiciel agentique","Découvrez comment les clients Google Cloud adoptent GitLab et Vertex AI pour les modèles de base, les contrôles d'entreprise et la richesse de Model Garden.\n",[736,737],"Regnard Raquedan","Rajesh Agadi","GitLab Duo Agent Platform redéfinit la façon dont les organisations conçoivent, sécurisent et livrent leurs logiciels. Depuis sa disponibilité générale en janvier 2026, la plateforme intègre l'IA agentique à chaque phase du cycle de développement logiciel. GitLab Duo Agent Platform constitue une couche d'orchestration intelligente au sein de laquelle les équipes de développement et leurs agents spécialisés planifient, codent, révisent et corrigent ensemble les vulnérabilités de sécurité.\n\nGrâce à ce partenariat, [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/) automatise l'orchestration du développement logiciel et la gestion du contexte du cycle de vie via son intégration à Vertex AI sur Google Cloud, qui alimente la couche de modèles pour les appels d'agents. Les équipes continuent de travailler sur les tickets, les merge requests, les pipelines et les workflows de sécurité, tandis que l'inférence suit la posture Google Cloud qu'elles ont déjà définie.\n\nLes avancées des modèles Vertex AI de Google Cloud élargissent les possibilités d'utilisation de GitLab Duo Agent Platform pour les clients Google Cloud. Ces derniers bénéficient d'un plan de contrôle [DevSecOps](https://about.gitlab.com/fr-fr/topics/devsecops/ \"Qu'est-ce que le DevSecOps ?\") alimenté par l'IA dans GitLab, soutenu par une infrastructure d'IA en constante évolution dans Vertex AI, ainsi que par les options de déploiement et d'intégration flexibles de GitLab Duo Agent Platform. Cette combinaison permet des workflows agentiques plus performants et mieux gouvernés à l'échelle de l'entreprise.\n\n![Illustration conceptuelle de GitLab Duo Agent Platform intégré à Vertex AI de Google Cloud pour alimenter le développement logiciel agentique et les workflows d'IA gouvernés](https://res.cloudinary.com/about-gitlab-com/image/upload/v1776165990/b7jlux9kydafncwy8spc.png)\n\n## Des agents qui interviennent tout au long du cycle de vie\n\nDe nombreux outils d'IA se concentrent sur une seule tâche : accélérer la [génération de code](https://about.gitlab.com/fr-fr/topics/devops/ai-code-generation-guide/ \"Génération de code\"). GitLab Duo Agent Platform va plus loin. La plateforme orchestre des agents d'IA sur l'ensemble du cycle de vie du développement logiciel (SDLC), de la planification à la livraison en passant par les contrôles de sécurité, et ce pour de nombreuses équipes travaillant sur de multiples projets et releases. À cette échelle, les assistants d'IA pour le code sont indispensables à l'innovation continue, mais ne suffisent pas à eux seuls.\n\nLes assistants de codage à usage unique ont rarement une vision complète de l'état d'un projet. Le backlog, les merge requests en attente, les jobs en échec et les résultats de sécurité sont disponibles dans GitLab, mais une fenêtre de chat distincte dans un assistant de codage n'hérite pas de cette vue d'ensemble du [SDLC](https://about.gitlab.com/fr-fr/blog/what-is-sdlc/ \"Qu'est-ce que le SDLC ?\"). Ce manque se traduit par des transferts manuels, des explications répétées à une IA dépourvue de contexte, et des équipes de gouvernance qui tentent de cartographier les flux de données entre des outils qui n'ont jamais été conçus comme un système unifié.\n\nGitLab Duo Agent Platform contribue à combler ce fossé en exécutant des agents et des flows sur les mêmes objets que ceux utilisés quotidiennement par les équipes d'ingénierie. Vertex AI fournit ensuite les modèles et services que ces agents sollicitent lorsque Google Cloud est votre environnement d'inférence de référence, la passerelle d'IA (AI-Gateway) de GitLab gérant les accès afin que les administrateurs disposent d'une cartographie claire des connexions. Par exemple, l'agent Planner analyse les backlogs, décompose les epics en tâches structurées et applique des frameworks de priorisation pour aider les équipes à décider de ce qu'elles doivent développer ensuite. L'agent Security Analyst trie les vulnérabilités, détaille les risques en langage clair et recommande des mesures correctives par ordre de priorité. Des flows intégrés connectent ces agents au sein de processus de bout en bout, sans que les équipes de développement aient à gérer chaque transfert manuellement.\n\nAgentic Chat dans GitLab Duo Agent Platform offre une expérience unifiée pour les équipes de développement. Elles formulent des requêtes en langage naturel pour obtenir des réponses contextuelles basées sur un raisonnement multi-étapes qui s'appuie sur l'état complet d'un projet : ses tickets, ses merge requests, ses pipelines, ses résultats de sécurité et son code source. GitLab servant de système d'enregistrement pour le SDLC avec un modèle de données unifié, les agents GitLab Duo opèrent dans un contexte de cycle de vie qui échappe aux assistants d'IA autonomes et spécifiques à un outil.\n\n### Amplifiés par Vertex AI\n\nGitLab Duo Agent Platform est conçue pour offrir une flexibilité en matière de modèles, car elle attribue différentes capacités à différents modèles en fonction de ceux qui offrent les meilleures performances pour une tâche donnée. Ce choix architectural porte ses fruits sur Google Cloud, où Vertex AI joue le rôle d'environnement géré pour les modèles de base et les services associés, et offre un vaste écosystème de modèles et une infrastructure gérée qui contribuent à repousser encore plus loin les capacités de la plateforme.\n\nLes dernières générations de modèles d'IA disponibles via Vertex AI apportent des améliorations significatives en matière de raisonnement, d'utilisation des outils et de compréhension des contextes longs par rapport aux versions précédentes. Des propriétés sur lesquelles s'appuient les agents de GitLab sur de nombreux projets et équipes qui disposent de codes sources volumineux et complexes. Des fenêtres de contexte plus longues et une intégration plus riche des outils dans les modèles sous-jacents élargissent ce que les agents peuvent accomplir en une seule action, ce qui est particulièrement important pour des charges de travail telles que l'analyse approfondie du backlog ou le contrôle de sécurité d'un monorepo.\n\n[Vertex AI Model Garden](https://cloud.google.com/model-garden), avec son accès à un large éventail de modèles de base, offre aux clients la flexibilité nécessaire pour effectuer ces choix en fonction des performances, des coûts et des exigences réglementaires, sans la contrainte d'un fournisseur unique.\n\nPar ailleurs, les clients de GitLab peuvent utiliser la fonctionnalité Bring Your Own Model (BYOM) pour GitLab Duo Agent Platform, afin que les fournisseurs et les passerelles approuvés s'intègrent là où votre modèle de sécurité l'exige. L'article [consacré à GitLab Duo Agent Platform Self-Hosted et BYOM](https://about.gitlab.com/fr-fr/blog/agentic-ai-enterprise-control-self-hosted-duo-agent-platform-and-byom/) décrit le fonctionnement de cette configuration. Grâce à cette option de déploiement, les clients accèdent à un plus large éventail d'options de modèles qu'ils peuvent adapter à leur processus de développement logiciel : le bon modèle pour le bon workflow, avec les bonnes mesures de protection.\n\nPour GitLab, la décision de s'appuyer sur Vertex AI a été motivée par le besoin d'une fiabilité de niveau entreprise et d'une gamme de modèles inégalée. Vertex AI et Model Garden prennent entièrement en charge les aspects les plus complexes de l'hébergement des [grands modèles de langage (LLM)](https://about.gitlab.com/fr-fr/blog/large-language-model/ \"Qu'est-ce qu'un LLM ?\"), ce qui signifie que la livraison rapide de versions, la robustesse de la sécurité et la rigueur de la gouvernance sont intégrées de façon transparente dans l'intégration. Au-delà de l'offre de modèles Gemini, Vertex AI offre un accès mondial à faible latence à un vaste catalogue de modèles tiers et [open source](https://about.gitlab.com/fr-fr/blog/what-is-open-source/ \"Qu'est-ce que l'open source ?\").\n\nCombiné à l'approche de pointe de Google Cloud en matière de confidentialité des données et de protection des modèles, Vertex AI s'est imposé comme le choix évident pour alimenter l'[expérience développeur](https://about.gitlab.com/fr-fr/topics/devops/what-is-developer-experience/ \"Expérience développeur\") nouvelle génération de GitLab.\n\nEn intégrant Vertex AI Model Garden à son backend, GitLab renforce considérablement sa plateforme [DevSecOps](https://about.gitlab.com/fr-fr/topics/devsecops/ \"Qu'est-ce que le DevSecOps ?\") sans en répercuter la complexité sur les utilisateurs. Les équipes de développement n'ont pas à évaluer ni à gérer les LLM sous-jacents ; elles bénéficient au contraire d'un workflow simplifié et assisté par l'IA pour construire leurs applications.\n\nGitLab gère entièrement l'orchestration cloud et permet aux équipes de développement de se concentrer pleinement sur l'écriture d'un code de qualité, tandis que Vertex AI alimente les fonctionnalités qui les accompagnent.\n\n## Ce que cela signifie pour les clients Google Cloud\n\nGitLab Duo Agent Platform fournit déjà des agents d'IA qui opèrent sur l'ensemble du cycle de vie logiciel au sein d'un système d'enregistrement unique et gouverné. Sur Google Cloud, la plateforme favorise une innovation rapide à mesure que Vertex AI continue de faire évoluer les couches de modèles et d'infrastructure.\n\nPour les clients Google Cloud, cette intégration se traduit par une livraison logicielle rationalisée avec une gouvernance d'entreprise stricte. Pour les équipes d'ingénierie de plateforme, cela signifie normaliser les modèles Vertex qui alimentent les suggestions, les analyses et les corrections dans GitLab, plutôt que de répertorier des dizaines d'outils côté client. Les programmes de sécurité en bénéficient lorsque les agents proposent et valident des correctifs au même endroit où les équipes trient déjà les résultats, ce qui réduit les changements de contexte et les tâches qui s'échapperaient autrement vers des canaux non gérés.\n\nDu point de vue de l'économie et des politiques cloud, orienter l'inférence des agents vers Vertex depuis GitLab maintient l'utilisation à proximité des accords et contrôles déjà en place sur Google Cloud, ce qui contribue à éviter les dépenses redondantes et les chemins parallèles qui contournent les processus d'approvisionnement.\n\nVertex AI étant un fournisseur d'infrastructure sous-jacente de GitLab Duo Agent Platform, les organisations peuvent considérablement accroître la productivité de leurs équipes de développement sans les contraintes et les risques liés à la gestion de chaînes d'outils d'IA fragmentées. Les équipes restent alignées au sein d'un système d'enregistrement unique et sécurisé, ce qui leur permet de construire des applications plus rapidement et de livrer en toute confiance.\n\nLa collaboration entre GitLab et Google Cloud se construit depuis 2018. Aujourd'hui, elle représente l'une des collaborations les plus complètes pour les organisations qui souhaitent passer d'expérimentations en matière d'IA à un développement logiciel agentique entièrement gouverné sur Google Cloud. À mesure que les deux plateformes continuent d'évoluer, GitLab en élargissant son orchestration d'agents et son contexte développeur, et Vertex AI en repoussant les limites des capacités des modèles et de l'infrastructure des agents, la valeur ajoutée pour les clients communs ne cessera de croître.\n\n> [Commencez un essai gratuit de GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/free-trial/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr) pour découvrir la puissance de GitLab et Vertex AI sur Google Cloud.","https://res.cloudinary.com/about-gitlab-com/image/upload/v1749663121/Blog/Hero%20Images/LogoLockupPlusLight.png","2026-04-15",[22,279,742,743,728],"google","news",{"featured":27,"template":15,"slug":745},"gitlab-and-vertex-ai-on-google-cloud",{"content":747,"config":757},{"title":748,"description":749,"authors":750,"heroImage":752,"date":753,"body":754,"category":11,"tags":755},"Accélérez votre développement avec GitLab Duo Agent Platform et Claude","Découvrez comment tirer parti des modèles d'IA externes comme Claude d'Anthropic pour automatiser la génération de code et la création de pipelines directement dans GitLab.",[751],"Cesar Saavedra","https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058602/epl3sinfezlzxnppxak6.png","2026-04-09","Les équipes de développement logiciel modernes sont confrontées à un défi majeur : comment maintenir la cadence de développement tout en garantissant la qualité du code, la sécurité et la cohérence dans le cadre de projets complexes ?\n\nBien que les assistants IA pour le code aient accéléré la productivité individuelle des équipes, ils fonctionnent souvent en marge du workflow de développement global. Ce manque d'intégration oblige les développeurs à basculer constamment entre différents outils, à traduire manuellement les suggestions de l'IA en code exploitable et à consacrer un temps précieux à des tâches répétitives qui pourraient être automatisées.\n\n[GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/) résout ce problème en offrant une intégration transparente avec des modèles d'IA externes comme Claude d'Anthropic, Codex d'OpenAI et bien d'autres encore.\n\nEn créant des agents externes au sein de GitLab Duo Agent Platform, les organisations peuvent personnaliser les capacités de l'IA selon leurs besoins, workflows et normes spécifiques, directement dans l'environnement GitLab qu'elles connaissent. Les agents comprennent le contexte de votre projet, respectent vos normes de code et peuvent accomplir de manière autonome des tâches complexes en plusieurs étapes, de l'idée initiale au code prêt pour la production.\n\nRegardez cette démonstration vidéo et suivez les étapes ci-dessous pour vous lancer :\n\n\n\u003Cfigure class=\"video_container\">\n  \u003Ciframe src=\"https://www.youtube.com/embed/BPmoVCeyWJA?si=50ktjKxPUNpicXve\" frameborder=\"0\" allowfullscreen=\"true\"> \u003C/iframe>\n\u003C/figure>\n\n\n## Cas d'utilisation concrets\n\nVoici trois cas d'utilisation qui illustrent comment les agents externes transforment le cycle de vie du développement :\n\n### 1. De l'idée au code\n\nEn partant d'un projet vide et d'une description détaillée du ticket, l'agent externe (dans ce cas, Claude) prend en charge l'intégralité du développement de l'application. Le titre du ticket correspond à l'application souhaitée et la description énumère ses spécifications.\n\nL'agent lit le contexte (informations du projet, ressources associées, etc.), analyse les exigences détaillées dans le ticket, génère une application web Java full stack avec les composants d'interface utilisateur appropriés, implémente la logique métier avec les taux d'intérêt indiqués et crée une merge request comprenant l'ensemble du code prêt à être révisé.\n\nL'application générée inclut des classes Java backend, des fichiers HTML/CSS/JavaScript frontend et la configuration du build en fonction des spécifications du ticket d'origine. Les équipes peuvent ensuite tester l'application localement, vérifier les fonctionnalités et continuer à itérer avec l'agent par le biais d'une conversation en langage naturel.\n\n![Ticket détaillant les exigences de l'application](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058387/irzlmm0gukanjt7ryq9b.png \"Ticket détaillant les exigences de l'application\")\n\n\n\n![Prompt pour que l'agent externe crée une merge request avec implémentation de l'application](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058392/ajr6nquefob7lefdcxng.png \"Prompt pour que l'agent externe crée une merge request avec implémentation  de l'application\")\n\n\n\n\n![Implémentation terminée par l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058387/gbwwawybg9u4jzibuurw.png \"Implémentation terminée par l'agent externe\")\n\n\n\n![Nouvelle application créée par l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058387/rijlwchqo1zytp842bld.png \"Nouvelle application créée par l'agent externe\")\n\n\n\n![Build et exécution locale de l'application](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058386/aycpfxa0mdbfbxf2ydu3.png \"Build et exécution locale de l'application\")\n\n\n\n![Test local de l'application](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058388/rxlvwmzlx8vor92qhotl.png \"Test local de l'application\")\n\n### 2. Revue de code\n\nL'assurance qualité ne se limite pas à la génération de code. Dans le deuxième cas d'utilisation, le même agent externe effectue une revue de code complète de l'application qu'il a créée. En mentionnant l'agent dans un commentaire de la merge request, les équipes reçoivent une analyse détaillée comprenant les points forts du code, les problèmes critiques, les préoccupations de priorité moyenne, les améliorations mineures, les évaluations de sécurité, les notes de test, les métriques du code et les recommandations accompagnées d'un statut d'approbation. Ce processus de revue automatisée garantit la cohérence et détecte les problèmes potentiels avant qu'ils n'atteignent la production. Il permet aussi de libérer les développeurs expérimentés pour qu'ils se concentrent sur les décisions architecturales plutôt que sur les inspections routinières du code.\n\n\n![Demande de revue de code à l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058387/ri7x5qkx9bfnidfn8gx1.png \"Demande de revue de code à l'agent externe\")\n\n\n\n![Résultats de la revue de code par l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058392/trdamdekrnvkbnfz0twg.png \"Résultats de la revue de code par l'agent externe\")\n\n\n\n### 3. Création d'un pipeline pour construire une image de conteneur\n\nLe dernier cas d'utilisation se concentre sur une lacune courante : l'automatisation du déploiement. Lorsque la merge request ne dispose pas de [pipeline CI/CD](https://about.gitlab.com/fr-fr/topics/ci-cd/cicd-pipeline/ \"Qu'est-ce qu'un pipeline CI/CD ?\"), les équipes peuvent simplement demander à l'agent externe d'en créer un. L'agent génère une configuration de pipeline complète qui construit l'application, crée un Dockerfile au moyen d'images de base adaptées à la version Java du projet, construit une image [Docker](https://about.gitlab.com/fr-fr/blog/what-is-docker-comprehensive-guide/ \"Qu'est-ce que Docker ?\") et la déploie dans le registre de conteneurs intégré de GitLab. Le pipeline s'exécute automatiquement et suit les étapes de build, de création d'image Docker et de déploiement dans le registre sans configuration ni intervention manuelle.\n\n\n![Prompt pour que l'agent externe crée un pipeline et une image de conteneur](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058392/bwqipksewm1hejuycwqh.png \"Prompt pour que l'agent externe crée un pipeline et une image de conteneur\")\n\n\n\n![Nouveau pipeline et fichiers Dockerfile créés par l'agent externe](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058395/agyr8hhc1vax7aarsxoj.png \"Nouveau pipeline et fichiers Dockerfile créés par l'agent externe\")\n\n\n\n![Exécution réussie du pipeline venant d'être créé](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058395/cdm4mye5edkpemedpxts.png \"Exécution réussie du pipeline venant d'être créé\")\n\n\n\n![Image de conteneur créée suite à l'exécution du pipeline](https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058395/bifx71xz9k7vedbo9xl3.png \"Image de conteneur créée suite à l'exécution du pipeline\")\n\n## Résumé\n\nAvec ses agents externes, GitLab Duo Agent Platform représente un changement fondamental dans la manière dont les organisations abordent le développement logiciel. En remédiant à l'isolation des outils d'IA et à la fragmentation des workflows, les agents externes offrent une automatisation intelligente directement dans les plateformes que les équipes utilisent déjà. Plutôt que de traiter l'IA comme un assistant de codage séparé, GitLab Duo Agent Platform intègre de manière transparente des modèles externes comme Claude dans votre workflow GitLab, pour que les agents puissent comprendre le contexte complet du projet, respecter les normes de l'organisation et gérer en toute autonomie des tâches complexes à chaque étape du [SDLC](https://about.gitlab.com/fr-fr/blog/what-is-sdlc/ \"Qu'est-ce que le SDLC ?\").\n\nLa proposition de valeur est claire : les équipes de développement accélèrent les délais de livraison, maintiennent une qualité de code cohérente, réduisent le travail répétitif et libèrent les ingénieurs expérimentés afin qu'ils se concentrent sur l'innovation plutôt que sur les tâches routinières. De la génération de code prêt pour la production basée sur des descriptions de tickets à la réalisation de revues de code approfondies et à l'automatisation des pipelines de déploiement, les agents externes deviennent des collaborateurs de confiance qui comprennent les besoins et normes spécifiques de votre organisation.\n\nDécouvrez comment votre équipe peut livrer plus rapidement et maintenir une qualité de code supérieure sans changer de contexte tout au long du cycle de vie du développement logiciel. Essayez [GitLab Duo Agent Platform](https://about.gitlab.com/fr-fr/gitlab-duo-agent-platform/?utm_medium=blog&utm_source=blog&utm_campaign=eg_emea_x_trial_x_fr_blog_fr) dès aujourd'hui. Ensuite, consultez notre article [« Démarrer avec GitLab Duo Agent Platform : le guide complet »](https://about.gitlab.com/fr-fr/blog/gitlab-duo-agent-platform-complete-getting-started-guide/).\n\n",[728,22,756],"features",{"featured":14,"template":15,"slug":758},"gitlab-duo-agent-platform-with-claude-accelerates-development",{"promotions":760},[761,774,785,797],{"id":762,"categories":763,"header":764,"text":765,"button":766,"image":771},"ai-modernization",[11],"Is AI achieving its promise at scale?","Quiz will take 5 minutes or less",{"text":767,"config":768},"Get your AI maturity score",{"href":769,"dataGaName":770,"dataGaLocation":246},"/assessments/ai-modernization-assessment/","modernization assessment",{"config":772},{"src":773},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/qix0m7kwnd8x2fh1zq49.png",{"id":775,"categories":776,"header":777,"text":765,"button":778,"image":782},"devops-modernization",[728,37],"Are you just managing tools or shipping innovation?",{"text":779,"config":780},"Get your DevOps maturity score",{"href":781,"dataGaName":770,"dataGaLocation":246},"/assessments/devops-modernization-assessment/",{"config":783},{"src":784},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138785/eg818fmakweyuznttgid.png",{"id":786,"categories":787,"header":789,"text":765,"button":790,"image":794},"security-modernization",[788],"security","Are you trading speed for security?",{"text":791,"config":792},"Get your security maturity score",{"href":793,"dataGaName":770,"dataGaLocation":246},"/assessments/security-modernization-assessment/",{"config":795},{"src":796},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/p4pbqd9nnjejg5ds6mdk.png",{"id":798,"paths":799,"header":802,"text":803,"button":804,"image":809},"github-azure-migration",[800,801],"migration-from-azure-devops-to-gitlab","integrating-azure-devops-scm-and-gitlab","Is your team ready for GitHub's Azure move?","GitHub is already rebuilding around Azure. Find out what it means for you.",{"text":805,"config":806},"See how GitLab compares to GitHub",{"href":807,"dataGaName":808,"dataGaLocation":246},"/compare/gitlab-vs-github/github-azure-migration/","github azure migration",{"config":810},{"src":784},{"header":812,"blurb":813,"button":814,"secondaryButton":818},"Commencez à développer plus rapidement dès aujourd'hui","Découvrez ce que votre équipe peut accomplir avec la plateforme d'orchestration intelligente pour le DevSecOps.\n",{"text":48,"config":815},{"href":816,"dataGaName":51,"dataGaLocation":817},"https://gitlab.com/-/trial_registrations/new?glm_content=default-saas-trial&glm_source=about.gitlab.com/fr-fr/","feature",{"text":53,"config":819},{"href":55,"dataGaName":56,"dataGaLocation":817},1777493668777]