[{"data":1,"prerenderedAt":755},["ShallowReactive",2],{"/de-de/blog/what-is-a-large-language-model-llm":3,"navigation-de-de":36,"banner-de-de":440,"footer-de-de":450,"blog-post-authors-de-de-Itzik Gan Baruch":655,"blog-related-posts-de-de-what-is-a-large-language-model-llm":669,"assessment-promotions-de-de":707,"next-steps-de-de":745},{"id":4,"title":5,"authorSlugs":6,"body":8,"categorySlug":9,"config":10,"content":14,"description":8,"extension":24,"isFeatured":11,"meta":25,"navigation":26,"path":27,"publishedDate":20,"seo":28,"stem":32,"tagSlugs":33,"__hash__":35},"blogPosts/de-de/blog/what-is-a-large-language-model-llm.yml","What Is A Large Language Model Llm",[7],"itzik-gan-baruch",null,"ai-ml",{"featured":11,"template":12,"slug":13},false,"BlogPost","what-is-a-large-language-model-llm",{"title":15,"description":16,"authors":17,"heroImage":19,"date":20,"body":21,"tags":22,"category":9},"Was ist ein Large Language Model (LLM)?","Erfahre, wie Large Language Models funktionieren, welche Anwendungen es gibt und welchen Einfluss sie auf die DevSecOps-Welt haben.",[18],"Itzik Gan Baruch","https://res.cloudinary.com/about-gitlab-com/image/upload/v1749660057/Blog/Hero%20Images/LLM.jpg","2025-10-15","Large Language Models (LLMs) verändern DevOps- und DevSecOps-Ansätze grundlegend, indem sie komplexe Aufgaben wie Code-Erstellung, Log-Analyse und Vulnerability Detection vereinfachen.\nIn diesem Artikel erfährst du, wie LLMs funktionieren, welche praktischen Anwendungen es gibt und welche Herausforderungen gemeistert werden müssen, um ihr Potenzial voll auszuschöpfen.\n\nFür deutsche Entwicklungsteams sind LLMs besonders relevant, da sie repetitive Aufgaben automatisieren und die Einhaltung von Compliance-Anforderungen unterstützen können – beispielsweise in regulierten Branchen wie Finanzdienstleistungen oder der Automobilindustrie.\n\n## Was ist ein LLM?\n\nLLMs sind KI-Systeme (Künstliche Intelligenz), die autonom Text verarbeiten und generieren können. Sie werden trainiert, indem sie große Datenmengen aus verschiedenen Quellen analysieren, wodurch sie linguistische Strukturen, kontextuelle Beziehungen und sprachliche Nuancen beherrschen.\n\nLLMs stellen einen bedeutenden Fortschritt im KI-Bereich dar. Ihre Fähigkeit, Text zu verarbeiten, zu generieren und zu interpretieren, basiert auf ausgereiften Machine-Learning- und Natural-Language-Processing-Techniken (NLP). Diese Systeme verarbeiten nicht nur einzelne Wörter, sondern analysieren komplexe Sequenzen, um die Gesamtbedeutung, subtile Kontexte und linguistische Nuancen zu erfassen.\n\n## Wie funktionieren LLMs?\n\nUm besser zu verstehen, wie sie funktionieren, betrachten wir einige Schlüsseleigenschaften von Large Language Models.\n\n### Supervised und Unsupervised Learning\n\nLLMs werden mit zwei komplementären Ansätzen trainiert: Supervised Learning und Unsupervised Learning. Diese beiden Machine-Learning-Ansätze maximieren ihre Fähigkeit, Text zu analysieren und zu generieren.\n\n* **Supervised Learning** basiert auf gelabelten Daten, bei denen jeder Input mit einem erwarteten Output verknüpft ist. Das Modell lernt, diese Inputs mit den korrekten Outputs zu assoziieren, indem es seine internen Parameter anpasst, um Vorhersagefehler zu reduzieren. Durch diesen Ansatz erwirbt das Modell präzises Wissen über spezifische Aufgaben wie Textklassifikation oder Named Entity Recognition.\n* **Unsupervised Learning (oder maschinelles Lernen)** benötigt hingegen keine gelabelten Daten. Das Modell erkundet große Textmengen, um versteckte Strukturen zu entdecken und semantische Beziehungen zu identifizieren. Das Modell kann daher wiederkehrende Muster, implizite grammatikalische Regeln im Text und die Kontextualisierung von Sätzen und Konzepten lernen. Diese Methode ermöglicht es, LLMs auf großen Datenkorpora zu trainieren, was ihren Fortschritt ohne direkte menschliche Intervention erheblich beschleunigt.\n\n  Durch die Kombination dieser beiden Ansätze gewinnen Large Language Models die Vorteile sowohl präzisen, menschlich geführten Lernens als auch unbegrenzter autonomer Exploration. Diese Komplementarität ermöglicht es ihnen, sich schnell zu entwickeln und gleichzeitig ihre Fähigkeit zu verbessern, Text kohärent und kontextuell zu verstehen und zu generieren.\n\n### Training auf großen Datenmengen\n\nLLMs werden auf Milliarden von Sätzen aus verschiedenen Quellen trainiert, wie Nachrichtenartikeln, Online-Foren, technischer Dokumentation, wissenschaftlichen Studien und mehr. Diese Quellenvielfalt ermöglicht es ihnen, ein breites und nuanciertes Verständnis natürlicher Sprache zu erwerben, das von alltäglichen Ausdrücken bis zu Fachterminologie reicht.\n\nDer Reichtum der verwendeten Daten ist ein Schlüsselfaktor für die Leistung von LLMs. Jede Quelle bringt unterschiedliche Schreibstile, kulturelle Kontexte und technische Niveaus mit sich.\nZum Beispiel:\n\n* **Nachrichtenartikel**, um informative und faktische Sprache zu beherrschen\n* **Online-Foren**, um informelle Unterhaltungen und Fachsprache spezialisierter Communities zu verstehen\n* **Technische Dokumentation und wissenschaftliche Studien**, um komplexe Konzepte und spezifische Terminologie zu assimilieren, besonders in Bereichen wie DevOps und DevSecOps\n  Diese Inhaltsvielfalt ermöglicht es LLMs, komplexe linguistische Strukturen zu erkennen, Sätze in verschiedenen Kontexten zu interpretieren und sich an hochgradig technische Domänen anzupassen. In DevSecOps bedeutet dies, Commands, Konfigurationen, Sicherheitsprotokolle und sogar Konzepte im Zusammenhang mit der Entwicklung und Wartung von Computersystemen zu verstehen.\n  Mit diesem groß angelegten Training können LLMs komplexe Fragen präzise beantworten, technische Dokumentation schreiben oder Schwachstellen in Computersystemen identifizieren.\n\n### Neuronale Netzwerkarchitektur und Deep Learning\n\nLLMs basieren auf fortgeschrittenen neuronalen Netzwerkarchitekturen. Diese Netzwerke sind speziell darauf ausgelegt, große Textsequenzen zu verarbeiten und dabei ein genaues Verständnis des Kontexts beizubehalten. Dieses auf Deep Learning basierende Training ist ein wichtiger Vorteil im NLP-Bereich.\nDie bekannteste dieser Strukturen ist die Architektur von Sequence-to-Sequence-Modellen (Transformers). Diese Architektur hat NLP mit ihrer Fähigkeit, alle Teile eines Textes gleichzeitig zu analysieren, grundlegend verändert – im Gegensatz zu sequenziellen Ansätzen, die Wörter einzeln verarbeiten.\n\nSequence-to-Sequence-Modelle eignen sich hervorragend für die Verarbeitung langer Texte. Beispielsweise können sie in einer Konversation oder einem detaillierten technischen Dokument entfernte Informationen im Text verknüpfen, um präzise und gut begründete Antworten zu produzieren. Dieses Kontextmanagement ist in einem DevSecOps-Ansatz essenziell, wo Anweisungen komplex sein und sich über mehrere Codezeilen oder Konfigurationsschritte erstrecken können.\n\n### Prädiktive Textgenerierung\n\nWenn der Benutzer einen Text, eine Abfrage oder eine Frage einreicht, nutzt ein LLM seine prädiktive Fähigkeit, um die wahrscheinlichste Sequenz basierend auf dem gegebenen Kontext zu generieren.\nDas Modell analysiert jedes Wort, untersucht grammatikalische und semantische Beziehungen und wählt dann die passendsten Begriffe aus, um einen kohärenten und informativen Text zu produzieren. Dieser Ansatz ermöglicht es, präzise, detaillierte und an den erwarteten Ton angepasste Antworten zu generieren.\n\nIn DevSecOps-Umgebungen wird diese Fähigkeit besonders nützlich für:\n\n* **Coding-Unterstützung:** Generierung von Code-Blöcken oder Scripts, die an spezifische Konfigurationen angepasst sind\n* **Technische Problemlösung:** Lösungsvorschläge basierend auf Beschreibungen von Bugs oder Fehlern\n* **Erstellung technischer Dokumentation:** Automatische Erstellung von Anleitungen, Handbüchern oder Anweisungen\n  Die prädiktive Textgenerierung ermöglicht es somit, viele repetitive Aufgaben zu automatisieren und die Arbeit technischer Teams zu beschleunigen.\n\n## Anwendungen von Large Language Models im DevSecOps-Ansatz\n\nMit dem Aufstieg der Automatisierung sind LLMs zu unverzichtbaren Unterstützern für technische Teams geworden. Ihre Fähigkeit, Text kontextuell zu verstehen und zu generieren, ermöglicht es ihnen, effektiv in komplexen Umgebungen wie [DevSecOps](https://about.gitlab.com/de-de/topics/devsecops/) zu arbeiten.\n\nMit ihrer Analysekraft und Anpassungsfähigkeit an spezifische Bedürfnisse bieten diese Modelle maßgeschneiderte Lösungen, um Prozesse zu straffen und die Arbeitslast technischer Teams zu reduzieren.\n\nEntwicklungsteams können LLMs nutzen, um funktionale Spezifikationen automatisch in Quellcode umzuwandeln.\n\nMit dieser Fähigkeit können sie folgende Aktionen durchführen:\n\n* Komplexe Automatisierungsskripte generieren\n* CI/CD-Pipelines erstellen, die auf spezifische Geschäftsprozesse zugeschnitten sind\n* Individuelle Sicherheitspatches produzieren\n* Code-Erklärungen generieren und Dokumentation erstellen\n* Code refaktorisieren, indem Struktur und Lesbarkeit verbessert werden, ohne die Funktionalität zu ändern\n* Tests generieren\n  Durch den Einsatz von LLMs können Teams die Entwicklung ihrer Software beschleunigen und gleichzeitig das Risiko menschlicher Fehler reduzieren.\n\n### Verbesserte Dokumentation und Wissensaustausch\n\nDiese leistungsstarken Tools ermöglichen es, maßgeschneiderte Benutzerhandbücher, API-Beschreibungen und Tutorials zu erstellen, die perfekt auf das Expertise-Level jedes Benutzers abgestimmt sind. Durch die Nutzung vorhandener Wissensbasen erstellen LLMs kontextuelle Antworten auf häufig gestellte Fragen. Dies verbessert den Wissensaustausch innerhalb von Teams, beschleunigt das Onboarding neuer Mitglieder und hilft, Best Practices zu zentralisieren.\n\n### Incident Management und Troubleshooting\n\nWährend eines Incidents spielen LLMs eine entscheidende Rolle bei der Echtzeit-Analyse von Logs und [Trace-Dateien](https://docs.gitlab.com/ee/development/tracing.html). Dank ihrer Fähigkeit, Informationen aus mehreren Quellen zu verknüpfen, identifizieren sie Anomalien und schlagen Lösungen basierend auf ähnlichen vergangenen Incidents vor. Dieser Ansatz reduziert die Diagnosezeit erheblich. Zusätzlich können LLMs die Erstellung detaillierter Incident-Reports automatisieren und spezifische Korrekturmaßnahmen empfehlen.\n\n### Erstellung und Verbesserung von CI/CD-Pipelines\n\nLLMs verändern die Konfiguration von [CI/CD-Pipelines](https://about.gitlab.com/de-de/topics/ci-cd/cicd-pipeline/) grundlegend. Sie können nicht nur bei der Erstellung von Pipelines helfen, sondern auch diesen Prozess automatisieren und optimale Konfigurationen basierend auf Industriestandards vorschlagen. Durch die Anpassung von Workflows an spezifische Bedürfnisse gewährleisten sie perfekte Konsistenz zwischen verschiedenen Entwicklungsumgebungen. Automatisierte Tests werden durch relevante Vorschläge verbessert, wodurch das Fehlerrisiko begrenzt wird. LLMs überwachen auch kontinuierlich die Effizienz von Pipelines und passen Prozesse an, um einen reibungslosen und unterbrechungsfreien Rollout sicherzustellen.\n\n### Sicherheit und Compliance\n\nIn einer DevSecOps-Umgebung werden Large Language Models zu wertvollen Unterstützern für Sicherheit und Compliance. Sie analysieren den Quellcode auf potenzielle Schwachstellen und generieren detaillierte Patch-Empfehlungen. LLMs können auch die Anwendung von Sicherheitsstandards in Echtzeit überwachen, umfassende Compliance-Reports produzieren und die Anwendung von Sicherheitspatches automatisieren, sobald eine Schwachstelle identifiziert wird. Diese Automatisierung erhöht die Gesamtsicherheit und gewährleistet konsistente Compliance mit rechtlichen und branchenspezifischen Anforderungen.\n\n## Was sind die Vorteile von Large Language Models?\n\nLLMs gestalten DevOps- und DevSecOps-Ansätze neu und bringen substanzielle Verbesserungen in Produktivität, Sicherheit und Softwarequalität. Durch die Integration in bestehende Workflows verändern LLMs traditionelle Ansätze, indem sie komplexe Aufgaben automatisieren und innovative Lösungen bieten.\n\n### Verbesserte Produktivität und Effizienz\n\nLLMs spielen eine zentrale Rolle bei der Verbesserung der Produktivität und Effizienz technischer Teams. Durch die Automatisierung einer breiten Palette repetitiver Aufgaben befreien sie Entwicklungsteams von Routineoperationen und ermöglichen es ihnen, sich auf strategische Aktivitäten mit höherem Mehrwert zu konzentrieren.\n\nDarüber hinaus agieren LLMs als intelligente technische Assistenten, die sofort relevante Code-Snippets liefern können, die auf den spezifischen Kontext jedes Projekts zugeschnitten sind. Auf diese Weise reduzieren sie die Recherchezeit erheblich, indem sie gebrauchsfertige Lösungen zur Unterstützung von Teams bei ihrer Arbeit anbieten. Diese gezielte Unterstützung beschleunigt die Problemlösung und reduziert Unterbrechungen in Workflows.\n\nAls Ergebnis steigt die Produktivität und Projekte kommen schneller voran. Technische Teams können mehr Aufgaben übernehmen, ohne die Qualität der Deliverables zu beeinträchtigen.\n\n### Verbesserte Code-Qualität und Sicherheit\n\nDer Einsatz von Large Language Models in der Softwareentwicklung ist ein wichtiger Hebel zur Verbesserung sowohl der Code-Qualität als auch der Anwendungssicherheit. Mit ihren fortgeschrittenen Analysefähigkeiten können LLMs Quellcode Zeile für Zeile scannen und sofort Syntaxfehler, logische Inkonsistenzen und potenzielle Schwachstellen erkennen. Ihre Fähigkeit, fehlerhaften Code zu erkennen, ermöglicht es ihnen, angemessene Korrekturen zu empfehlen, die den Best Practices der Branche entsprechen.\n\nLLMs spielen auch eine wichtige präventive Rolle. Sie sind hervorragend darin, komplexe Sicherheitslücken zu identifizieren, die für Menschen oft schwer zu erkennen sind. Durch die Analyse von Dependencies können sie veraltete oder anfällige Bibliotheken kennzeichnen und sicherere, aktualisierte Versionen empfehlen. Dieser Ansatz trägt dazu bei, eine sichere Umgebung aufrechtzuerhalten, die den aktuellen Sicherheitsstandards entspricht.\n\nÜber die Behebung bestehender Fehler hinaus bieten LLMs Verbesserungen, indem sie optimierte Coding-Praktiken und Projektstrukturen vorschlagen. Sie können Code generieren, der den fortschrittlichsten Sicherheitsstandards von den frühesten Entwicklungsstadien an entspricht.\n\n### Beschleunigung von Entwicklungszyklen\n\nLarge Language Models spielen eine Schlüsselrolle bei der Beschleunigung von Softwareentwicklungszyklen, indem sie zentrale Aufgaben automatisieren, die andernfalls wertvolle menschliche Ressourcen binden würden. Komplexe und repetitive Aufgaben wie das Schreiben von Funktionen, die Erstellung von Unit-Tests oder die Implementierung von Standardkomponenten werden in wenigen Momenten automatisiert.\n\nLLMs beschleunigen auch die Validierungsphase mit ihrer Fähigkeit, vollständige und angemessene Testfälle vorzuschlagen. Sie gewährleisten eine breitere Testabdeckung in kürzerer Zeit, reduzieren das Fehlerrisiko und ermöglichen die frühzeitige Erkennung von Anomalien. Dieser präventive Ansatz verkürzt den Korrekturzyklus und begrenzt Verzögerungen im Zusammenhang mit Code-Qualitätsproblemen.\nIndem sie technische Aufgaben vereinfachen und schnelle, maßgeschneiderte Lösungen bieten, ermöglichen Large Language Models Unternehmen, agiler auf Marktanforderungen zu reagieren. Diese Beschleunigung des Entwicklungszyklus führt zu häufigeren Updates, schnelleren Iterationen und einer besseren Fähigkeit, Produkte an die sich ändernden Bedürfnisse der Benutzer anzupassen.\nEntwicklungszyklen werden kürzer und bieten einen kritischen strategischen Vorteil in einer zunehmend anspruchsvollen Technologielandschaft.\n\n## Was sind die Herausforderungen beim Einsatz von LLMs?\n\nTrotz ihrer vielen Vorteile haben Large Language Models bestimmte Einschränkungen, die sorgfältig verwaltet werden müssen. Ihre Effektivität hängt stark von der Qualität der während des Trainings verwendeten Daten und regelmäßigen Updates ihrer Wissensbasen ab. Darüber hinaus können Probleme im Zusammenhang mit algorithmischen Verzerrungen, Datensicherheit und Datenschutz auftreten, die Unternehmen operativen und rechtlichen Risiken aussetzen. Eine sorgfältige menschliche Überwachung bleibt unerlässlich, um die Zuverlässigkeit der Ergebnisse sicherzustellen, die regulatorische Compliance aufrechtzuerhalten und kritische Fehler zu vermeiden.\n\n### Datenschutz und Sicherheit\n\nDas Training von LLMs basiert auf großen Datenmengen, oft aus verschiedenen Quellen, was Fragen zum Schutz vertraulicher Informationen aufwirft. Sensible Daten, die mit Cloud-Plattformen geteilt werden, können daher potenziellen Sicherheitsverletzungen ausgesetzt sein. Dies ist besonders besorgniserregend für Unternehmen, die in regulierten Sektoren tätig sind.\n\nIn Europa, wo strenge Vorschriften wie die DSGVO das Datenmanagement regeln, zögern viele Unternehmen, ihre Informationen an externe Dienste zu übertragen. Die regulatorischen Anforderungen, verbunden mit der Angst vor unbefugter Nutzung sensibler Daten, haben einige Unternehmen dazu veranlasst, sich für selbst gehostete Lösungen zu entscheiden, um die vollständige Kontrolle über ihre Systeme zu behalten.\n\nAnbieter wie GitLab haben robuste Sicherheitsgarantien implementiert, wie die absichtliche Nicht-Speicherung persönlicher Daten und End-to-End-Verschlüsselung. Dies reicht jedoch möglicherweise nicht für die anspruchsvollsten Kunden aus, die eine vollständige Kontrolle über ihre Umgebungen bevorzugen. Die Implementierung hybrider oder On-Premises-Lösungen wird dann zu einer strategischen Notwendigkeit, um die Sicherheitsanforderungen bestimmter Unternehmen zu erfüllen.\nErfahre mehr über GitLab Duo Self-Hosted, indem du auf das Bild unten klickst, um auf unsere Produkttour zuzugreifen.\n[![GitLab Duo Self-Hosted tour](https://res.cloudinary.com/about-gitlab-com/image/upload/v1749673815/Blog/Content%20Images/Screenshot_2025-05-29_at_8.29.30%C3%A2__AM.png)](https://gitlab.navattic.com/gitlab-duo-self-hosted)\n\n### Genauigkeit und Zuverlässigkeit\n\nObwohl Large Language Models beeindruckende Ergebnisse produzieren können, ist ihre Leistung nicht unfehlbar. Sie können falsche, unvollständige oder inkonsistente Antworten produzieren. Diese Ungenauigkeit wird besonders problematisch im Kontext kritischer Aufgaben wie der Generierung von Sicherheitscode oder der Analyse sensibler Daten.\n\nDarüber hinaus arbeiten LLMs auf der Grundlage probabilistischer Modelle, was bedeutet, dass sie den Inhalt, den sie verarbeiten, nicht wirklich \"verstehen\", sondern Vorhersagen basierend auf statistischen Wahrscheinlichkeiten produzieren. Dies kann zu technisch falschen oder sogar gefährlichen Empfehlungen führen, wenn sie ohne menschliche Validierung verwendet werden.\n\nUm diese Fallstricke zu vermeiden, ist es unerlässlich, eine konstante Überwachung aufrechtzuerhalten und rigorose Validierungsprozesse zu etablieren. Die von LLMs bereitgestellten Ergebnisse müssen immer von Menschen überprüft werden, bevor sie in kritische Systeme integriert werden.\n\nEine Strategie regelmäßiger Modell-Updates, kombiniert mit proaktiver menschlicher Überwachung, kann Fehler reduzieren und die Zuverlässigkeit der Ergebnisse schrittweise verbessern.\n\n## Wie GitLab LLMs für GitLab Duo-Features nutzt\n\n[GitLab Duo](https://about.gitlab.com/de-de/gitlab-duo/) nutzt die Kraft von Large Language Models, um DevSecOps-Prozesse zu transformieren, indem KI-gestützte Fähigkeiten über den gesamten Softwareentwicklungszyklus integriert werden. Dieser Ansatz zielt darauf ab, die Produktivität zu verbessern, die Sicherheit zu stärken und komplexe Aufgaben zu automatisieren, damit sich Entwicklungsteams auf Aufgaben mit hohem Mehrwert konzentrieren können.\n\n### KI-unterstützte Softwareentwicklung\n\nGitLab Duo bietet kontinuierliche Unterstützung während des gesamten Softwareentwicklungszyklus mit Echtzeit-Empfehlungen. Entwicklungsteams können automatisch Unit-Tests generieren, detaillierte Erklärungen komplexer Code-Segmente erhalten und von Vorschlägen zur Verbesserung ihrer Code-Qualität profitieren.\n\n### Proaktive CI/CD-Fehleranalyse\n\nEine der Schlüsselfunktionen von GitLab Duo ist die Unterstützung bei der Analyse von CI/CD-Job-Fehlern. Mit LLM und KI können Teams schnell Fehlerquellen in ihren Continuous-Integration- und Deployment-Pipelines identifizieren.\n\n### Verbesserte Code-Sicherheit\n\nGitLab Duo integriert KI-basierte Sicherheitsfunktionen. Das System erkennt Schwachstellen im Quellcode und schlägt detaillierte Patches vor, um die Risiken zu reduzieren. Teams erhalten klare Erklärungen zur Art der identifizierten Schwachstellen und können automatisierte Patches über [Merge Requests](https://docs.gitlab.com/ee/user/project/merge_requests/) anwenden, die direkt von GitLab Duo generiert werden. Diese Funktion hilft, die Entwicklung zu sichern, ohne die Entwicklungszyklen zu verlangsamen.\n\nErfahre mehr über GitLab Duo Vulnerability Explanation and Resolution, indem du auf das Bild unten klickst, um auf unsere Produkttour zuzugreifen.\n[![Vulnerability report interactive tour](https://res.cloudinary.com/about-gitlab-com/image/upload/v1749673816/Blog/Content%20Images/Screenshot_2025-05-29_at_8.32.15%C3%A2__AM.png)](https://gitlab.navattic.com/ve-vr-short)\n\n### Schlüsselfunktionen von GitLab Duo\n\n* [GitLab Duo Chat](https://about.gitlab.com/de-de/blog/10-best-practices-for-using-ai-powered-gitlab-duo-chat/): Diese Konversationsfunktion verarbeitet und generiert Text und Code intuitiv. Sie ermöglicht es Benutzern, schnell relevante Informationen in großen Textmengen zu suchen, einschließlich in Tickets, [Epics](https://docs.gitlab.com/ee/user/group/epics/), Quellcode und der [GitLab-Dokumentation](https://docs.gitlab.com/).\n* [GitLab Duo Self-Hosted](https://about.gitlab.com/de-de/blog/gitlab-duo-self-hosted-enterprise-ai-built-for-data-privacy/): GitLab Duo Self-Hosted ermöglicht es Unternehmen mit strengen Datenschutzanforderungen, von den KI-Fähigkeiten von GitLab Duo mit Flexibilität bei der Wahl der Bereitstellung und LLMs aus einer Liste unterstützter Optionen zu profitieren.\n* [GitLab Duo Code Suggestions](https://about.gitlab.com/direction/create/code_creation/code_suggestions/): Entwicklungsteams profitieren von automatisierten Code-Vorschlägen, die es ihnen ermöglichen, schneller sicheren Code zu schreiben. Repetitive und routinemäßige Codierungsaufgaben werden automatisiert, wodurch Softwareentwicklungszyklen erheblich beschleunigt werden.\n* GitLab Duo ist nicht auf diese Funktionen beschränkt. Es bietet eine breite Palette von Features, die darauf ausgelegt sind, die Softwareentwicklung zu vereinfachen und zu optimieren. Ob es um die Automatisierung von Tests, die Verbesserung der Zusammenarbeit zwischen Teams oder die Stärkung der Projektsicherheit geht, GitLab Duo ist eine vollständige Lösung für intelligente und effiziente DevSecOps-Prozesse.\n* Erfahre mehr über GitLab Duo Enterprise, indem du auf das Bild unten klickst, um auf unsere Produkttour zuzugreifen.\n  [![GitLab Duo Enterprise interactive tour](https://res.cloudinary.com/about-gitlab-com/image/upload/v1749673816/Blog/Content%20Images/Screenshot_2025-05-29_at_8.33.40%C3%A2__AM.png)](https://gitlab.navattic.com/duo-enterprise)",[23],"AI/ML","yml",{},true,"/de-de/blog/what-is-a-large-language-model-llm",{"title":15,"description":16,"noIndex":11,"ogImage":19,"ogUrl":29,"ogSiteName":30,"ogType":31,"canonicalUrls":29},"https://about.gitlab.com/blog/what-is-a-large-language-model-llm","https://about.gitlab.com","article","de-de/blog/what-is-a-large-language-model-llm",[34],"aiml","fWAQmfjLDopuLp74eK1QZ3cdNheidhDAJXcCxuxGOrk",{"data":37},{"logo":38,"freeTrial":43,"sales":48,"login":53,"items":58,"search":367,"minimal":402,"duo":420,"pricingDeployment":430},{"config":39},{"href":40,"dataGaName":41,"dataGaLocation":42},"/de-de/","gitlab logo","header",{"text":44,"config":45},"Kostenlose Testversion anfordern",{"href":46,"dataGaName":47,"dataGaLocation":42},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com&glm_content=default-saas-trial/","free trial",{"text":49,"config":50},"Vertrieb kontaktieren",{"href":51,"dataGaName":52,"dataGaLocation":42},"/de-de/sales/","sales",{"text":54,"config":55},"Anmelden",{"href":56,"dataGaName":57,"dataGaLocation":42},"https://gitlab.com/users/sign_in/","sign in",[59,86,182,187,288,348],{"text":60,"config":61,"cards":63},"Plattform",{"dataNavLevelOne":62},"platform",[64,70,78],{"title":60,"description":65,"link":66},"Die intelligente Orchestrierungsplattform für DevSecOps",{"text":67,"config":68},"Erkunde unsere Plattform",{"href":69,"dataGaName":62,"dataGaLocation":42},"/de-de/platform/",{"title":71,"description":72,"link":73},"GitLab Duo Agent Platform","Agentische KI für den gesamten Softwareentwicklungszyklus",{"text":74,"config":75},"Lerne GitLab Duo kennen",{"href":76,"dataGaName":77,"dataGaLocation":42},"/de-de/gitlab-duo-agent-platform/","gitlab duo agent platform",{"title":79,"description":80,"link":81},"Gründe, die für GitLab sprechen","Erfahre, warum Unternehmen auf GitLab setzen",{"text":82,"config":83},"Mehr erfahren",{"href":84,"dataGaName":85,"dataGaLocation":42},"/de-de/why-gitlab/","why gitlab",{"text":87,"left":26,"config":88,"link":90,"lists":94,"footer":164},"Produkt",{"dataNavLevelOne":89},"solutions",{"text":91,"config":92},"Alle Lösungen anzeigen",{"href":93,"dataGaName":89,"dataGaLocation":42},"/de-de/solutions/",[95,120,142],{"title":96,"description":97,"link":98,"items":103},"Automatisierung","CI/CD und Automatisierung zur Beschleunigung der Bereitstellung",{"config":99},{"icon":100,"href":101,"dataGaName":102,"dataGaLocation":42},"AutomatedCodeAlt","/de-de/solutions/delivery-automation/","automated software delivery",[104,108,111,116],{"text":105,"config":106},"CI/CD",{"href":107,"dataGaLocation":42,"dataGaName":105},"/de-de/solutions/continuous-integration/",{"text":71,"config":109},{"href":76,"dataGaLocation":42,"dataGaName":110},"gitlab duo agent platform - product menu",{"text":112,"config":113},"Quellcodeverwaltung",{"href":114,"dataGaLocation":42,"dataGaName":115},"/de-de/solutions/source-code-management/","Source Code Management",{"text":117,"config":118},"Automatisierte Softwarebereitstellung",{"href":101,"dataGaLocation":42,"dataGaName":119},"Automated software delivery",{"title":121,"description":122,"link":123,"items":128},"Sicherheit","Entwickle schneller, ohne die Sicherheit zu gefährden",{"config":124},{"href":125,"dataGaName":126,"dataGaLocation":42,"icon":127},"/de-de/solutions/application-security-testing/","security and compliance","ShieldCheckLight",[129,133,138],{"text":130,"config":131},"Application Security Testing",{"href":125,"dataGaName":132,"dataGaLocation":42},"Application security testing",{"text":134,"config":135},"Schutz der Software-Lieferkette",{"href":136,"dataGaLocation":42,"dataGaName":137},"/de-de/solutions/supply-chain/","Software supply chain security",{"text":139,"config":140},"Software Compliance",{"href":141,"dataGaName":139,"dataGaLocation":42},"/de-de/solutions/software-compliance/",{"title":143,"link":144,"items":149},"Bewertung",{"config":145},{"icon":146,"href":147,"dataGaName":148,"dataGaLocation":42},"DigitalTransformation","/de-de/solutions/visibility-measurement/","visibility and measurement",[150,154,159],{"text":151,"config":152},"Sichtbarkeit und Bewertung",{"href":147,"dataGaLocation":42,"dataGaName":153},"Visibility and Measurement",{"text":155,"config":156},"Wertstrommanagement",{"href":157,"dataGaLocation":42,"dataGaName":158},"/de-de/solutions/value-stream-management/","Value Stream Management",{"text":160,"config":161},"Analysen und Einblicke",{"href":162,"dataGaLocation":42,"dataGaName":163},"/de-de/solutions/analytics-and-insights/","Analytics and insights",{"title":165,"items":166},"GitLab für",[167,172,177],{"text":168,"config":169},"Enterprise",{"href":170,"dataGaLocation":42,"dataGaName":171},"/de-de/enterprise/","enterprise",{"text":173,"config":174},"Kleinunternehmen",{"href":175,"dataGaLocation":42,"dataGaName":176},"/de-de/small-business/","small business",{"text":178,"config":179},"den öffentlichen Sektor",{"href":180,"dataGaLocation":42,"dataGaName":181},"/de-de/solutions/public-sector/","public sector",{"text":183,"config":184},"Preise",{"href":185,"dataGaName":186,"dataGaLocation":42,"dataNavLevelOne":186},"/de-de/pricing/","pricing",{"text":188,"config":189,"link":191,"lists":195,"feature":275},"Ressourcen",{"dataNavLevelOne":190},"resources",{"text":192,"config":193},"Alle Ressourcen anzeigen",{"href":194,"dataGaName":190,"dataGaLocation":42},"/de-de/resources/",[196,229,247],{"title":197,"items":198},"Erste Schritte",[199,204,209,214,219,224],{"text":200,"config":201},"Installieren",{"href":202,"dataGaName":203,"dataGaLocation":42},"/de-de/install/","install",{"text":205,"config":206},"Kurzanleitungen",{"href":207,"dataGaName":208,"dataGaLocation":42},"/de-de/get-started/","quick setup checklists",{"text":210,"config":211},"Lernen",{"href":212,"dataGaLocation":42,"dataGaName":213},"https://university.gitlab.com/","learn",{"text":215,"config":216},"Produktdokumentation",{"href":217,"dataGaName":218,"dataGaLocation":42},"https://docs.gitlab.com/","product documentation",{"text":220,"config":221},"Best-Practice-Videos",{"href":222,"dataGaName":223,"dataGaLocation":42},"/de-de/getting-started-videos/","best practice videos",{"text":225,"config":226},"Integrationen",{"href":227,"dataGaName":228,"dataGaLocation":42},"/de-de/integrations/","integrations",{"title":230,"items":231},"Entdecken",[232,237,242],{"text":233,"config":234},"Kundenerfolge",{"href":235,"dataGaName":236,"dataGaLocation":42},"/de-de/customers/","customer success stories",{"text":238,"config":239},"Blog",{"href":240,"dataGaName":241,"dataGaLocation":42},"/de-de/blog/","blog",{"text":243,"config":244},"Remote",{"href":245,"dataGaName":246,"dataGaLocation":42},"https://handbook.gitlab.com/handbook/company/culture/all-remote/","remote",{"title":248,"items":249},"Vernetzen",[250,255,260,265,270],{"text":251,"config":252},"GitLab-Services",{"href":253,"dataGaName":254,"dataGaLocation":42},"/de-de/services/","services",{"text":256,"config":257},"Community",{"href":258,"dataGaName":259,"dataGaLocation":42},"/community/","community",{"text":261,"config":262},"Forum",{"href":263,"dataGaName":264,"dataGaLocation":42},"https://forum.gitlab.com/","forum",{"text":266,"config":267},"Veranstaltungen",{"href":268,"dataGaName":269,"dataGaLocation":42},"/events/","events",{"text":271,"config":272},"Partner",{"href":273,"dataGaName":274,"dataGaLocation":42},"/de-de/partners/","partners",{"backgroundColor":276,"textColor":277,"text":278,"image":279,"link":283},"#2f2a6b","#fff","Perspektiven für die Softwareentwicklung der Zukunft",{"altText":280,"config":281},"the source promo card",{"src":282},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758208064/dzl0dbift9xdizyelkk4.svg",{"text":284,"config":285},"Lies die News",{"href":286,"dataGaName":287,"dataGaLocation":42},"/de-de/the-source/","the source",{"text":289,"config":290,"lists":292},"Unternehmen",{"dataNavLevelOne":291},"company",[293],{"items":294},[295,300,306,308,313,318,323,328,333,338,343],{"text":296,"config":297},"Über",{"href":298,"dataGaName":299,"dataGaLocation":42},"/de-de/company/","about",{"text":301,"config":302,"footerGa":305},"Karriere",{"href":303,"dataGaName":304,"dataGaLocation":42},"/jobs/","jobs",{"dataGaName":304},{"text":266,"config":307},{"href":268,"dataGaName":269,"dataGaLocation":42},{"text":309,"config":310},"Geschäftsführung",{"href":311,"dataGaName":312,"dataGaLocation":42},"/company/team/e-group/","leadership",{"text":314,"config":315},"Team",{"href":316,"dataGaName":317,"dataGaLocation":42},"/company/team/","team",{"text":319,"config":320},"Handbuch",{"href":321,"dataGaName":322,"dataGaLocation":42},"https://handbook.gitlab.com/","handbook",{"text":324,"config":325},"Investor Relations",{"href":326,"dataGaName":327,"dataGaLocation":42},"https://ir.gitlab.com/","investor relations",{"text":329,"config":330},"Trust Center",{"href":331,"dataGaName":332,"dataGaLocation":42},"/de-de/security/","trust center",{"text":334,"config":335},"AI Transparency Center",{"href":336,"dataGaName":337,"dataGaLocation":42},"/de-de/ai-transparency-center/","ai transparency center",{"text":339,"config":340},"Newsletter",{"href":341,"dataGaName":342,"dataGaLocation":42},"/company/contact/#contact-forms","newsletter",{"text":344,"config":345},"Presse",{"href":346,"dataGaName":347,"dataGaLocation":42},"/press/","press",{"text":349,"config":350,"lists":351},"Kontakt",{"dataNavLevelOne":291},[352],{"items":353},[354,357,362],{"text":49,"config":355},{"href":51,"dataGaName":356,"dataGaLocation":42},"talk to sales",{"text":358,"config":359},"Support-Portal",{"href":360,"dataGaName":361,"dataGaLocation":42},"https://support.gitlab.com","support portal",{"text":363,"config":364},"Kundenportal",{"href":365,"dataGaName":366,"dataGaLocation":42},"https://customers.gitlab.com/customers/sign_in/","customer portal",{"close":368,"login":369,"suggestions":376},"Schließen",{"text":370,"link":371},"Um Repositories und Projekte zu durchsuchen, melde dich an bei",{"text":372,"config":373},"gitlab.com",{"href":56,"dataGaName":374,"dataGaLocation":375},"search login","search",{"text":377,"default":378},"Vorschläge",[379,381,386,388,393,398],{"text":71,"config":380},{"href":76,"dataGaName":71,"dataGaLocation":375},{"text":382,"config":383},"Code Suggestions (KI)",{"href":384,"dataGaName":385,"dataGaLocation":375},"/de-de/solutions/code-suggestions/","Code Suggestions (AI)",{"text":105,"config":387},{"href":107,"dataGaName":105,"dataGaLocation":375},{"text":389,"config":390},"GitLab auf AWS",{"href":391,"dataGaName":392,"dataGaLocation":375},"/de-de/partners/technology-partners/aws/","GitLab on AWS",{"text":394,"config":395},"GitLab auf Google Cloud",{"href":396,"dataGaName":397,"dataGaLocation":375},"/de-de/partners/technology-partners/google-cloud-platform/","GitLab on Google Cloud",{"text":399,"config":400},"Warum GitLab?",{"href":84,"dataGaName":401,"dataGaLocation":375},"Why GitLab?",{"freeTrial":403,"mobileIcon":408,"desktopIcon":413,"secondaryButton":416},{"text":404,"config":405},"Kostenlos testen",{"href":406,"dataGaName":47,"dataGaLocation":407},"https://gitlab.com/-/trials/new/","nav",{"altText":409,"config":410},"GitLab-Symbol",{"src":411,"dataGaName":412,"dataGaLocation":407},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203874/jypbw1jx72aexsoohd7x.svg","gitlab icon",{"altText":409,"config":414},{"src":415,"dataGaName":412,"dataGaLocation":407},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1758203875/gs4c8p8opsgvflgkswz9.svg",{"text":197,"config":417},{"href":418,"dataGaName":419,"dataGaLocation":407},"https://gitlab.com/-/trial_registrations/new?glm_source=about.gitlab.com/de-de/compare/gitlab-vs-github/","get started",{"freeTrial":421,"mobileIcon":426,"desktopIcon":428},{"text":422,"config":423},"Erfahre mehr über GitLab Duo",{"href":424,"dataGaName":425,"dataGaLocation":407},"/de-de/gitlab-duo/","gitlab duo",{"altText":409,"config":427},{"src":411,"dataGaName":412,"dataGaLocation":407},{"altText":409,"config":429},{"src":415,"dataGaName":412,"dataGaLocation":407},{"freeTrial":431,"mobileIcon":436,"desktopIcon":438},{"text":432,"config":433},"Zurück zur Preisübersicht",{"href":185,"dataGaName":434,"dataGaLocation":407,"icon":435},"back to pricing","GoBack",{"altText":409,"config":437},{"src":411,"dataGaName":412,"dataGaLocation":407},{"altText":409,"config":439},{"src":415,"dataGaName":412,"dataGaLocation":407},{"title":441,"button":442,"config":447},"Sieh dir an, wie agentische KI die Softwarebereitstellung transformiert",{"text":443,"config":444},"GitLab Transcend jetzt ansehen",{"href":445,"dataGaName":446,"dataGaLocation":42},"/de-de/events/transcend/virtual/","transcend event",{"layout":448,"icon":449},"release","AiStar",{"data":451},{"text":452,"source":453,"edit":459,"contribute":464,"config":469,"items":474,"minimal":647},"Git ist eine Marke von Software Freedom Conservancy und unsere Verwendung von „GitLab“ erfolgt unter Lizenz.",{"text":454,"config":455},"Quelltext der Seite anzeigen",{"href":456,"dataGaName":457,"dataGaLocation":458},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/","page source","footer",{"text":460,"config":461},"Diese Seite bearbeiten",{"href":462,"dataGaName":463,"dataGaLocation":458},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/content/","web ide",{"text":465,"config":466},"Beteilige dich",{"href":467,"dataGaName":468,"dataGaLocation":458},"https://gitlab.com/gitlab-com/marketing/digital-experience/about-gitlab-com/-/blob/main/CONTRIBUTING.md/","please contribute",{"twitter":470,"facebook":471,"youtube":472,"linkedin":473},"https://x.com/gitlab","https://www.facebook.com/gitlab","https://www.youtube.com/channel/UCnMGQ8QHMAnVIsI3xJrihhg","https://www.linkedin.com/company/gitlab-com",[475,498,553,580,614],{"title":60,"links":476,"subMenu":481},[477],{"text":478,"config":479},"DevSecOps-Plattform",{"href":69,"dataGaName":480,"dataGaLocation":458},"devsecops platform",[482],{"title":183,"links":483},[484,488,493],{"text":485,"config":486},"Tarife anzeigen",{"href":185,"dataGaName":487,"dataGaLocation":458},"view plans",{"text":489,"config":490},"Vorteile von Premium",{"href":491,"dataGaName":492,"dataGaLocation":458},"/de-de/pricing/premium/","why premium",{"text":494,"config":495},"Vorteile von Ultimate",{"href":496,"dataGaName":497,"dataGaLocation":458},"/de-de/pricing/ultimate/","why ultimate",{"title":499,"links":500},"Lösungen",[501,506,509,511,516,521,525,528,531,536,538,540,543,548],{"text":502,"config":503},"Digitale Transformation",{"href":504,"dataGaName":505,"dataGaLocation":458},"/de-de/topics/digital-transformation/","digital transformation",{"text":507,"config":508},"Sicherheit und Compliance",{"href":125,"dataGaName":132,"dataGaLocation":458},{"text":117,"config":510},{"href":101,"dataGaName":102,"dataGaLocation":458},{"text":512,"config":513},"Agile Entwicklung",{"href":514,"dataGaName":515,"dataGaLocation":458},"/de-de/solutions/agile-delivery/","agile delivery",{"text":517,"config":518},"Cloud-Transformation",{"href":519,"dataGaName":520,"dataGaLocation":458},"/de-de/topics/cloud-native/","cloud transformation",{"text":522,"config":523},"SCM",{"href":114,"dataGaName":524,"dataGaLocation":458},"source code management",{"text":105,"config":526},{"href":107,"dataGaName":527,"dataGaLocation":458},"continuous integration & delivery",{"text":155,"config":529},{"href":157,"dataGaName":530,"dataGaLocation":458},"value stream management",{"text":532,"config":533},"GitOps",{"href":534,"dataGaName":535,"dataGaLocation":458},"/de-de/solutions/gitops/","gitops",{"text":168,"config":537},{"href":170,"dataGaName":171,"dataGaLocation":458},{"text":173,"config":539},{"href":175,"dataGaName":176,"dataGaLocation":458},{"text":541,"config":542},"Öffentlicher Sektor",{"href":180,"dataGaName":181,"dataGaLocation":458},{"text":544,"config":545},"Bildungswesen",{"href":546,"dataGaName":547,"dataGaLocation":458},"/de-de/solutions/education/","education",{"text":549,"config":550},"Finanzdienstleistungen",{"href":551,"dataGaName":552,"dataGaLocation":458},"/de-de/solutions/finance/","financial services",{"title":188,"links":554},[555,557,559,561,564,566,568,570,572,574,576,578],{"text":200,"config":556},{"href":202,"dataGaName":203,"dataGaLocation":458},{"text":205,"config":558},{"href":207,"dataGaName":208,"dataGaLocation":458},{"text":210,"config":560},{"href":212,"dataGaName":213,"dataGaLocation":458},{"text":215,"config":562},{"href":217,"dataGaName":563,"dataGaLocation":458},"docs",{"text":238,"config":565},{"href":240,"dataGaName":241,"dataGaLocation":458},{"text":233,"config":567},{"href":235,"dataGaName":236,"dataGaLocation":458},{"text":243,"config":569},{"href":245,"dataGaName":246,"dataGaLocation":458},{"text":251,"config":571},{"href":253,"dataGaName":254,"dataGaLocation":458},{"text":256,"config":573},{"href":258,"dataGaName":259,"dataGaLocation":458},{"text":261,"config":575},{"href":263,"dataGaName":264,"dataGaLocation":458},{"text":266,"config":577},{"href":268,"dataGaName":269,"dataGaLocation":458},{"text":271,"config":579},{"href":273,"dataGaName":274,"dataGaLocation":458},{"title":289,"links":581},[582,584,586,588,590,592,594,598,603,605,607,609],{"text":296,"config":583},{"href":298,"dataGaName":291,"dataGaLocation":458},{"text":301,"config":585},{"href":303,"dataGaName":304,"dataGaLocation":458},{"text":309,"config":587},{"href":311,"dataGaName":312,"dataGaLocation":458},{"text":314,"config":589},{"href":316,"dataGaName":317,"dataGaLocation":458},{"text":319,"config":591},{"href":321,"dataGaName":322,"dataGaLocation":458},{"text":324,"config":593},{"href":326,"dataGaName":327,"dataGaLocation":458},{"text":595,"config":596},"Sustainability",{"href":597,"dataGaName":595,"dataGaLocation":458},"/sustainability/",{"text":599,"config":600},"Vielfalt, Inklusion und Zugehörigkeit",{"href":601,"dataGaName":602,"dataGaLocation":458},"/de-de/diversity-inclusion-belonging/","Diversity, inclusion and belonging",{"text":329,"config":604},{"href":331,"dataGaName":332,"dataGaLocation":458},{"text":339,"config":606},{"href":341,"dataGaName":342,"dataGaLocation":458},{"text":344,"config":608},{"href":346,"dataGaName":347,"dataGaLocation":458},{"text":610,"config":611},"Transparenzerklärung zu moderner Sklaverei",{"href":612,"dataGaName":613,"dataGaLocation":458},"https://handbook.gitlab.com/handbook/legal/modern-slavery-act-transparency-statement/","modern slavery transparency statement",{"title":615,"links":616},"Nimm Kontakt auf",[617,620,625,627,632,637,642],{"text":618,"config":619},"Sprich mit einem Experten/einer Expertin",{"href":51,"dataGaName":52,"dataGaLocation":458},{"text":621,"config":622},"Support",{"href":623,"dataGaName":624,"dataGaLocation":458},"/support/","get help",{"text":363,"config":626},{"href":365,"dataGaName":366,"dataGaLocation":458},{"text":628,"config":629},"Status",{"href":630,"dataGaName":631,"dataGaLocation":458},"https://status.gitlab.com/","status",{"text":633,"config":634},"Nutzungsbedingungen",{"href":635,"dataGaName":636,"dataGaLocation":458},"/terms/","terms of use",{"text":638,"config":639},"Datenschutzerklärung",{"href":640,"dataGaName":641,"dataGaLocation":458},"/de-de/privacy/","privacy statement",{"text":643,"config":644},"Cookie-Einstellungen",{"dataGaName":645,"dataGaLocation":458,"id":646,"isOneTrustButton":26},"cookie preferences","ot-sdk-btn",{"items":648},[649,651,653],{"text":633,"config":650},{"href":635,"dataGaName":636,"dataGaLocation":458},{"text":638,"config":652},{"href":640,"dataGaName":641,"dataGaLocation":458},{"text":643,"config":654},{"dataGaName":645,"dataGaLocation":458,"id":646,"isOneTrustButton":26},[656],{"id":657,"title":18,"body":8,"config":658,"content":660,"description":8,"extension":24,"meta":664,"navigation":26,"path":665,"seo":666,"stem":667,"__hash__":668},"blogAuthors/en-us/blog/authors/itzik-gan-baruch.yml",{"template":659},"BlogAuthor",{"name":18,"config":661},{"headshot":662,"ctfId":663},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1749658921/Blog/Author%20Headshots/iganbaruch-headshot.jpg","iganbaruch",{},"/en-us/blog/authors/itzik-gan-baruch",{},"en-us/blog/authors/itzik-gan-baruch","bz9VMiTQ1ixvnoxUFk0jiUcnLG3oQsymgXNCqyRqfsk",[670,683,697],{"content":671,"config":681},{"title":672,"description":673,"heroImage":674,"authors":675,"date":677,"body":678,"category":9,"tags":679},"KI erkennt Schwachstellen – aber wer verantwortet das Risiko?","KI-gestützte Schwachstellenerkennung entwickelt sich schnell, doch Durchsetzung, Governance und Supply-Chain-Sicherheit erfordern eine integrierte Plattform.","https://res.cloudinary.com/about-gitlab-com/image/upload/v1772195014/ooezwusxjl1f7ijfmbvj.png",[676],"Omer Azaria","2026-02-27","Anthropic hat kürzlich Claude Code Security angekündigt – ein KI-System, das Schwachstellen erkennt und Korrekturen vorschlägt. Die Reaktion der Märkte folgte prompt: Die Aktien von Cybersecurity-Unternehmen gaben nach, als Investoren begannen, die Zukunft klassischer AppSec-Tools in Frage zu stellen. Die Frage, die viele beschäftigt: Wenn KI Code schreiben und absichern kann, wird Anwendungssicherheit dann überflüssig?\n\nWenn Sicherheit nur das Scannen von Code bedeutete, wäre die Antwort vielleicht ja. Aber Enterprise-Sicherheit war noch nie auf Erkennung allein ausgerichtet.\n\nUnternehmen fragen nicht, ob KI Schwachstellen finden kann. Sie stellen drei weitaus schwieriger zu beantwortende Fragen:\n\n* Ist das, was wir ausliefern wollen, sicher?\n* Hat sich unsere Risikolage verändert, während sich Umgebungen, Abhängigkeiten, Drittanbieter-Services, Tools und Infrastruktur kontinuierlich wandeln?\n* Wie lässt sich eine Codebasis steuern, die zunehmend von KI und Drittquellen zusammengestellt wird – für die wir aber weiterhin verantwortlich sind?\n\nDiese Fragen erfordern eine Plattformantwort: Erkennung macht Risiken sichtbar, aber Governance bestimmt, was als nächstes passiert.\n\n[GitLab](https://about.gitlab.com/de-de/) ist die Orchestrierungsschicht, die den Software-Lebenszyklus durchgängig steuert und Teams die Durchsetzung, Transparenz und Nachvollziehbarkeit gibt, die sie brauchen, um mit der Geschwindigkeit KI-gestützter Entwicklung Schritt zu halten.\n\n## KI vertrauen erfordert Governance\n\nKI-Systeme werden zunehmend besser darin, Schwachstellen zu identifizieren und Korrekturen vorzuschlagen. Das ist ein bedeutender Fortschritt – aber Analyse ist keine Verantwortung.\n\nKI kann Unternehmensrichtlinien nicht eigenständig durchsetzen oder akzeptables Risiko definieren. Menschen müssen die Grenzen, Richtlinien und Leitplanken festlegen, innerhalb derer Agenten operieren: Funktionstrennung sicherstellen, Audit-Trails gewährleisten und konsistente Kontrollen über Tausende von Repositories und Teams hinweg aufrechterhalten. Vertrauen in Agenten entsteht nicht durch Autonomie allein, sondern durch klar definierte Governance durch Menschen.\n\nIn einer [agentischen Welt](https://about.gitlab.com/de-de/topics/agentic-ai/), in der Software zunehmend von autonomen Systemen geschrieben und verändert wird, wird Governance wichtiger, nicht unwichtiger. Je mehr Autonomie Unternehmen KI gewähren, desto stärker muss die Governance sein.\n\nGovernance ist keine Bremse. Sie ist das Fundament, das KI-gestützte Entwicklung im Unternehmensmaßstab vertrauenswürdig macht.\n\n## LLMs sehen Code, Plattformen sehen Kontext\n\nEin Large Language Model ([LLM](https://about.gitlab.com/de-de/blog/what-is-a-large-language-model-llm/)) bewertet Code isoliert. Eine Enterprise Application Security-Plattform versteht Kontext. Dieser Unterschied ist entscheidend, weil Risikoentscheidungen kontextabhängig sind:\n\n* Wer hat die Änderung vorgenommen?\n* Wie kritisch ist die Anwendung für das Unternehmen?\n* Wie interagiert sie mit Infrastruktur und Abhängigkeiten?\n* Liegt die Schwachstelle in Code, der tatsächlich in der Produktion erreichbar ist, oder in einer Abhängigkeit, die nie ausgeführt wird?\n* Ist sie in der Produktion tatsächlich ausnutzbar – angesichts der Art, wie die Anwendung läuft, ihrer APIs und der sie umgebenden Umgebung?\n\nSicherheitsentscheidungen hängen von diesem Kontext ab. Fehlt er, produziert Erkennung laute Alarme, die die Entwicklung verlangsamen, anstatt Risiken zu reduzieren. Mit ihm können Unternehmen schnell priorisieren und Risiken gezielt managen. Da sich Kontext mit jeder Softwareänderung weiterentwickelt, kann Governance keine einmalige Entscheidung sein.\n\n## Statische Scans halten mit dynamischem Risiko nicht Schritt\n\nSoftware-Risiko ist dynamisch. Abhängigkeiten ändern sich, Umgebungen entwickeln sich, und Systeme interagieren auf Weisen, die keine einzelne Analyse vollständig vorhersehen kann. Ein sauberer Scan zu einem Zeitpunkt garantiert keine Sicherheit beim Release.\n\nEnterprise-Sicherheit setzt auf kontinuierliche Absicherung: Kontrollen, die direkt in Entwicklungs-Workflows eingebettet sind und Risiken bewerten, während Software entwickelt, getestet und bereitgestellt wird.\n\nErkennung liefert Erkenntnisse. Governance schafft Vertrauen. Kontinuierliche Governance ermöglicht es Unternehmen, im Unternehmensmaßstab sicher auszuliefern.\n\n## Die agentische Zukunft steuern\n\nKI verändert, wie Software entsteht. Die Frage lautet nicht mehr, ob Teams KI einsetzen werden, sondern wie sicher sie dabei skalieren können.\n\nSoftware wird heute ebenso zusammengestellt wie geschrieben – aus KI-generiertem Code, Open-Source-Bibliotheken und Drittanbieter-Abhängigkeiten, die sich über Tausende von Projekten erstrecken. Zu steuern, was über all diese Quellen hinweg ausgeliefert wird, ist der anspruchsvollste Teil der Anwendungssicherheit – und jener, für den kein entwicklerseitiges Tool ausgelegt ist.\n\nAls intelligente Orchestrierungsplattform ist GitLab darauf ausgerichtet, dieses Problem zu lösen. GitLab Ultimate bettet Governance, Richtliniendurchsetzung, Security Scanning und Nachvollziehbarkeit direkt in die Workflows ein, in denen Software geplant, entwickelt und ausgeliefert wird – damit Security-Teams im Tempo von KI steuern können.\n\nKI wird die Entwicklung erheblich beschleunigen. Den größten Nutzen werden nicht die Unternehmen ziehen, die die leistungsfähigsten KI-Assistenten einsetzen, sondern jene, die Vertrauen durch starke Governance aufbauen.\n\n> Wie GitLab Unternehmen dabei hilft, [KI-generierten Code zu steuern und sicher auszuliefern](https://about.gitlab.com/solutions/software-compliance/?utm_medium=blog&utm_campaign=eg_global_x_x_security_en_): [Jetzt mit unserem Team sprechen.](https://about.gitlab.com/sales/?utm_medium=blog&utm_campaign=eg_global_x_x_security_en_)\n\n## Weiterführende Beiträge\n- [KI und DevOps für verbesserte Sicherheit integrieren](https://about.gitlab.com/de-de/topics/devops/ai-enhanced-security/)\n\n- [Das GitLab KI-Sicherheits-Framework für Security-Verantwortliche](https://about.gitlab.com/de-de/blog/the-gitlab-ai-security-framework-for-security-leaders/)\n\n- [KI-Sicherheit in GitLab mit Composite Identities verbessern](https://about.gitlab.com/de-de/blog/improve-ai-security-in-gitlab-with-composite-identities/)\n\n---\n\n## Für deutsche Unternehmen: Governance als regulatorische Anforderung\n\nDie in diesem Beitrag beschriebenen Governance-Prinzipien adressieren Anforderungen, die regulierte Unternehmen in Deutschland unmittelbar betreffen könnten.\n\nDie NIS-2-Richtlinie (umgesetzt durch das NIS2UmsuCG) verpflichtet betroffene Unternehmen zu Maßnahmen im Bereich Risikoanalyse und Informationssicherheit (Artikel 21 Abs. 2 lit. a), Incident-Handling (Artikel 21 Abs. 2 lit. b) sowie zur Sicherheit in der Software-Lieferkette (Artikel 21 Abs. 2 lit. d) und bei der sicheren Entwicklung (Artikel 21 Abs. 2 lit. e). Die hier beschriebene Unterscheidung zwischen Erkennung und Governance spiegelt genau diese regulatorische Logik wider: Schwachstellen zu finden reicht nicht – entscheidend ist, wer die Reaktion darauf steuert, dokumentiert und verantwortet.\n\nISO 27001 adressiert ähnliche Anforderungen: Zugriffskontrolle (A.5.15–18), Logging und Monitoring (A.8.15–16), Schwachstellenmanagement (A.8.8) sowie Änderungsmanagement (A.8.32) setzen voraus, dass Governance-Prozesse in Entwicklungs-Workflows eingebettet sind – nicht nachgelagert.\n\nFür Unternehmen in regulierten Branchen wie Finanzdienstleistungen (BaFin BAIT §6–7), Automotive (TISAX) oder kritischer Infrastruktur (BSI KRITIS) könnten diese Anforderungen besonders relevant sein. Für konkrete Compliance-Anforderungen empfiehlt sich Rücksprache mit entsprechender Fachberatung.",[23,680],"security",{"featured":26,"template":12,"slug":682},"ai-can-detect-vulnerabilities-but-who-governs-risk",{"content":684,"config":695},{"title":685,"description":686,"authors":687,"heroImage":689,"date":690,"body":691,"category":9,"tags":692},"Wie GitLab Duo Agent Platform und Claude Softwareentwicklung beschleunigen","Wie externe KI-Modelle wie Claude von Anthropic Code-Generierung, Code-Reviews und Pipeline-Erstellung direkt in GitLab übernehmen.",[688],"Cesar Saavedra","https://res.cloudinary.com/about-gitlab-com/image/upload/v1772058602/epl3sinfezlzxnppxak6.png","2026-02-26","KI-Assistenten steigern die Produktivität einzelner Entwicklungsteams – aber sie arbeiten oft isoliert vom eigentlichen Entwicklungs-Workflow. Das Ergebnis: Kontextwechsel zwischen Tools, manuelle Übertragung von KI-Vorschlägen in ausführbaren Code und Routineaufgaben, die automatisiert werden könnten.\n\nDie [GitLab Duo Agent Platform](https://about.gitlab.com/de-de/gitlab-duo-agent-platform/) schließt diese Lücke: Externe KI-Modelle wie Anthropics Claude oder OpenAIs Codex lassen sich direkt in GitLab einbinden und als Agenten konfigurieren, die den Projektkontext kennen, Coding-Standards einhalten und komplexe Aufgaben eigenständig erledigen.\n\nCesar Saavedra, Developer Advocate bei GitLab, zeigt in seinem Video drei aufeinander aufbauende Anwendungsfälle – vom leeren Projekt bis zum Container-Image in der Registry.\n\n## Von der Idee zum Code\nAusgangspunkt ist ein leeres GitLab-Projekt mit einem Issue, das die Anforderungen an eine Java-Webanwendung beschreibt. Der externe Agent liest den Issue, analysiert die Spezifikationen und generiert eine vollständige Full-Stack-Anwendung: Backend-Java-Klassen, Frontend-Dateien (HTML/CSS/JavaScript) und Build-Konfiguration. Das Ergebnis landet als Merge Request mit vollständigem Code – bereit zur Überprüfung.\n\n## Code-Review durch denselben Agenten\nIm zweiten Schritt übernimmt derselbe Agent die Code-Review des soeben erstellten Merge Requests. Per Erwähnung im MR-Kommentar liefert er eine strukturierte Analyse: Stärken, kritische Probleme, mittlere und kleinere Verbesserungspunkte, Security-Assessment, Testhinweise, Code-Metriken und einen Approval-Status. Senior-Entwicklungsteams werden von Routineprüfungen entlastet und können sich auf Architekturentscheidungen konzentrieren.\n\n## Pipeline und Container-Image auf Anfrage\nDer generierte Code enthält noch keine CI/CD-Pipeline. Eine Anfrage im Merge Request genügt: Der Agent erstellt ein Dockerfile mit passenden Basis-Images für die im pom.xml definierte Java-Version, eine vollständige Pipeline mit Build-, Docker- und Deploy-Stages sowie das fertige Container-Image im integrierten GitLab Container Registry – ohne manuelle Konfiguration.\n\n## Mehr erfahren\nDie vollständige Videodemonstration mit Screenshots aller Schritte ist im [englischen Originalbeitrag](https://about.gitlab.com/blog/gitlab-duo-agent-platform-with-claude-accelerates-development/) verfügbar. Einen Einstieg in die GitLab Duo Agent Platform bietet außerdem der [Getting Started Guide](https://about.gitlab.com/de-de/blog/gitlab-duo-agent-platform-complete-getting-started-guide/).\n\n",[693,23,694],"product","features",{"featured":11,"template":12,"slug":696},"gitlab-duo-agent-platform-with-claude-accelerates-development",{"content":698,"config":705},{"title":699,"description":700,"heroImage":701,"date":702,"body":703,"category":9,"tags":704},"Agentic SDLC: GitLab und TCS bringen Intelligent Orchestration ins Unternehmen","DevSecOps mit KI-Agenten skalieren, die Entwicklungsteams bei der Automatisierung von Workflows, Compliance und Delivery unterstützen.","https://res.cloudinary.com/about-gitlab-com/image/upload/v1771866240/l16gpgupgz8uelyc8jfy.png","2026-02-24","GitLab und TCS geben ihre Partnerschaft bekannt, um Unternehmen bei der\nskalierbaren Beschleunigung ihrer Software-Delivery zu unterstützen.\n\n\nUnternehmen benötigen schnelle, sichere Software-Delivery, kämpfen jedoch häufig mit fragmentierten Toolchains, uneinheitlichen Sicherheitskontrollen und manuellen Compliance-Prozessen. KI-generierter Code und KI-gestützte Bedrohungen erhöhen die Komplexität zusätzlich.\n\n\nDie GitLab- und TCS Center of Excellence (CoE)-Acceleratoren reduzieren gemeinsam Migrationsaufwände, kodifizieren Leitplanken und industrialisieren die DevSecOps-Einführung im Unternehmensmaßstab. Gemeinsam ermöglichen sie einen Weg von der Standardisierung zur Intelligent Orchestration – mit den notwendigen prüfbaren Leitplanken während der Entwicklung.\n\n\n## Für das zukunftsfähige Unternehmen\n\n\nUnternehmen suchen eine DevSecOps-Plattform mit langfristiger Stabilität, die keine regelmäßige Neuarchitektur im großen Maßstab erfordert.     GitLabs einheitliches Datenmodell verbindet den gesamten Software-Lebenszyklus zu einer einzigen Kontextquelle. Das ermöglicht Unternehmen, Pipelines, Kontrollen und Metriken im Unternehmensmaßstab zu standardisieren. GitLabs kontinuierliche Weiterentwicklung KI-gestützter Funktionen ist darauf ausgelegt, die Plattform auch bei der Einführung agentischer Workflows langfristig relevant zu halten.\n\n\nGitLab und TCS synchronisieren Multi-Agent-Orchestrierung, dynamische Planung, konfidenzbasierte Entscheidungsfindung und kontinuierliche Lernzyklen, um Coding, Reviews, Tests, Security und CI/CD-Workflows zu automatisieren.\n\n\nDie [GitLab Duo Agent Platform](https://about.gitlab.com/de-de/gitlab-duo-agent-platform/) stellt Intelligent Orchestration über den gesamten Software-Lebenszyklus bereit – durch kontextbewusste autonome Aktionen, mehrstufiges Reasoning, Code-Modernisierung, Security Scanning und Flow-Automatisierung, gesteuert durch GitLabs KI-native DevSecOps-Kontrollen. Dies ist kompatibel mit TCS' strukturierter Agent-Hierarchie für IT-Operationen: Reasoning-, Planungs- und Domain-Agenten rufen die spezialisierten Agenten der GitLab Duo Platform (z. B. Planner, Security Analyst, Code Review) über MCP-gesteuerte Integrationen und umfangreiche Projektkontextflüsse auf.\n\n\n## DevSecOps mit Platform Engineering skalieren\n\n\nPlatform Engineering verlagert den Fokus vom Management einzelner Pipelines und Toolchains hin zum Aufbau einer Internal Developer Platform (IDP), die standardisiert, wie Software entwickelt, abgesichert, getestet und bereitgestellt wird.\n\n\nUnternehmen skalieren durch die Produktisierung der Developer Experience über Platform Engineering und den Betrieb von IDPs mit Self-Service Golden Paths. Sicherheit, Compliance und Governance sind standardmäßig durch Policy-as-Code eingebettet und standardisieren den Day-2-Betrieb. GitLab übernimmt die Rolle der IDP-Kontrollebene; TCS industrialisiert das Design und rollt Self-Service als Schicht auf der Kontrollebene aus. Als Solution Architects baut TCS Self-Service-Pfade, während die GitLab Duo Agent Platform Agentic AI hinzufügt, um die Entwicklung über den gesamten SDLC zu automatisieren.\n\n\n| Kategorie | Details |\n|---|---|\n| Experience Layer (IDP) | • Developer-Self-Service-Scaffolding \u003Cbr> • One-Click-Umgebungen/Runner/Scans \u003Cbr> • Standardisiertes Onboarding |\n| Platform Control Plane (GitLab) | • Merge Requests als Kontrollpunkt \u003Cbr> • Integriertes CI/CD \u003Cbr> • Security \u003Cbr> • Software Bill of Materials (SBOMs) \u003Cbr> • Approvals \u003Cbr> • Telemetrie |\n| Guardrails und Governance | • Richtlinienbasierte Governance \u003Cbr> • Compliance as Code \u003Cbr> • Risikogestufte Golden Paths \u003Cbr> • Obligatorische Kontrollen ohne manuelle Gates |\n| Infrastructure and Runtime | • Cloud Landing Zones \u003Cbr> • Kubernetes/VM-Laufzeitumgebungen \u003Cbr> • GitOps-gesteuerte Desired-State-Durchsetzung |\n| Golden Paths | • Kontinuierliche Verbesserung und sichere Erweiterbarkeit von Produkten \u003Cbr> • Vermeidung von Pipeline-Drift bei erhaltener Autonomie |\n| Day-2-Betrieb | • Automatisiertes Rollback \u003Cbr> • Laufzeit-SLOs verknüpft mit Release-Richtlinien \u003Cbr> • Schwachstellen-SLAs \u003Cbr> • Kostentransparenz \u003Cbr> • In die Plattform integrierte Operational Excellence |\n\n\n## Von DevSecOps zu Intelligent Orchestration\n\n\nEine einheitliche DevSecOps-Plattform bietet Unternehmen eine solide Grundlage. Wenn KI-Agenten jedoch zu aktiven Teilnehmern im Software-Lebenszyklus werden, muss die Plattform mehr leisten als Code und Pipelines verwalten: Sie muss die Zusammenarbeit von Menschen und KI-Agenten orchestrieren – mit vollständigem Lebenszykluskontext und integrierten Leitplanken. Das ist der Übergang von DevSecOps zu Intelligent Orchestration, den die GitLab Duo Agent Platform ermöglicht.\n\n\n### GitLab Duo Agent Platform\n\n\nDie GitLab Duo Agent Platform integriert KI-Agenten in den Software-Entwicklungslebenszyklus, die Entwicklungsteams als Mitarbeiter unterstützen. Mehrere KI-Agenten bearbeiten Aufgaben parallel – von der Code-Generierung und Tests bis hin zu CI/CD-Korrekturen – und reduzieren dabei Engpässe. Entwicklungsteams steuern diese Agenten über definierte Regeln und behalten die Kontrolle, während Routineaufgaben delegiert werden. Diese Agent-Orchestrierung bewältigt komplexe Workflows (z. B. die automatische Behebung fehlerhafter Pipelines) und gibt Teams Kapazität für höherwertige Aufgaben frei.\n\n\nKI-Agenten arbeiten innerhalb von GitLabs einheitlichem Datenmodell: Sie erstellen Merge Requests, verbessern Code und unterstützen Compliance-Anforderungen. Da jede Agentenaktion über vollständigen Projektkontext verfügt, prüfbar und richtlinienkonform ist, lässt sich KI über tausende von Entwicklungsteams hinweg skalieren – mit durchgehender Sicherheit und regulatorischer Compliance in allen automatisierten Workflows. Dies reduziert den operativen Aufwand für Application Engineers, DevSecOps Engineers, Scrum Master und Product Manager.\n\n\n## Referenzarchitektur\n\n\n![GitLab TCS Referenzarchitektur](https://res.cloudinary.com/about-gitlab-com/image/upload/v1771866349/ynfgc7ugqjasyj1uhew0.png)\n\n\n## GitLab + TCS\n\n\nGitLab stellt eine Intelligent Orchestration-Plattform für DevSecOps bereit, auf der Entwicklungsteams und KI-Agenten über den gesamten Entwicklungslebenszyklus hinweg zusammenarbeiten. TCS bringt industrialisierte Einführungs-Engines, erprobte Referenzarchitekturen, Migrations-Factories im Unternehmensmaßstab, Enterprise-Security-Baselines, Enterprise-KI-Kompetenz, AI Trust- und Risk-Management-Frameworks sowie einen produktorientierten Ansatz für den Plattformbetrieb ein.\n\n\nTCS verfügt über umfangreiche Erfahrung aus der Arbeit mit Kunden unterschiedlichster Branchen, Regionen und regulatorischer Anforderungen. Diese Erfahrung ermöglicht es TCS, GitLab-Funktionen auf konkrete Enterprise-Rahmenbedingungen anzupassen – darunter gewachsene IT-Landschaften, Compliance-Anforderungen, Betriebsmodelle und Skalierungsherausforderungen – anstatt Tooling isoliert einzuführen. Gemeinsam ermöglichen GitLab und TCS eine schnelle, verlässliche Delivery im Unternehmensmaßstab über verschiedene Cloud-Umgebungen hinweg – mit integrierter Compliance.\n\n\n> Um mehr über GitLab + TCSzu erfahren, schicke uns eine Email an: ecosystem@gitlab.com\n",[23,693],{"featured":11,"template":12,"slug":706},"agentic-sdlc-gitlab-and-tcs-deliver-intelligent-orchestration-across-the-enterprise",{"promotions":708},[709,722,734],{"id":710,"categories":711,"header":712,"text":713,"button":714,"image":719},"ai-modernization",[9],"Is AI achieving its promise at scale?","Quiz will take 5 minutes or less",{"text":715,"config":716},"Get your AI maturity score",{"href":717,"dataGaName":718,"dataGaLocation":241},"/assessments/ai-modernization-assessment/","modernization assessment",{"config":720},{"src":721},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/qix0m7kwnd8x2fh1zq49.png",{"id":723,"categories":724,"header":726,"text":713,"button":727,"image":731},"devops-modernization",[693,725],"devsecops","Are you just managing tools or shipping innovation?",{"text":728,"config":729},"Get your DevOps maturity score",{"href":730,"dataGaName":718,"dataGaLocation":241},"/assessments/devops-modernization-assessment/",{"config":732},{"src":733},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138785/eg818fmakweyuznttgid.png",{"id":735,"categories":736,"header":737,"text":713,"button":738,"image":742},"security-modernization",[680],"Are you trading speed for security?",{"text":739,"config":740},"Get your security maturity score",{"href":741,"dataGaName":718,"dataGaLocation":241},"/assessments/security-modernization-assessment/",{"config":743},{"src":744},"https://res.cloudinary.com/about-gitlab-com/image/upload/v1772138786/p4pbqd9nnjejg5ds6mdk.png",{"header":746,"blurb":747,"button":748,"secondaryButton":753},"Beginne noch heute, schneller zu entwickeln","Entdecke, was dein Team mit der intelligenten Orchestrierungsplattform für DevSecOps erreichen kann.\n",{"text":749,"config":750},"Kostenlosen Test starten",{"href":751,"dataGaName":47,"dataGaLocation":752},"https://gitlab.com/-/trial_registrations/new?glm_content=default-saas-trial&glm_source=about.gitlab.com/","feature",{"text":49,"config":754},{"href":51,"dataGaName":52,"dataGaLocation":752},1772652054659]