In einem globalen Pharma-Konzern lief das Provisioning von Cloud-Ressourcen – insbesondere Snowflake-Datenbanken und S3-Buckets – über komplexe statische Formulare mit mehreren Freigabe- und Validierungsstufen. Für die antragstellenden Teams bedeutete das: wochenlange Durchlaufzeiten, wiederholte Rückfragen, fehleranfällige manuelle Validierung und spürbare Reibung bei jeder neuen Analyse- oder Data-Science-Initiative.
Die Cloud-Ops-Teams wiederum waren mit repetitiver Prüfung gleichartiger Anträge beschäftigt – Zeit, die für strategische Weiterentwicklung der Plattform fehlte. Eine Verbesserung über zusätzliche Formularfelder oder Workflow-Tools wäre nur inkrementell gewesen. Der eigentliche Hebel lag in einem fundamental anderen Interaktionsmodell.
Wir haben einen KI-gestützten Chatbot entwickelt, der den gesamten Provisioning-Prozess über natürliche Sprache abwickelt – von der Bedarfserfassung über die Validierung bis zur eigentlichen Bereitstellung der Ressourcen. Der Chatbot ist nicht als isoliertes Experiment konzipiert, sondern als enterprise-ready Komponente in der bestehenden Cloud-Landschaft.
Das FORM_STATE-Protokoll war der entscheidende architektonische Baustein: Es verbindet die Flexibilität eines LLMs mit der deterministischen Nachvollziehbarkeit, die Enterprise-Prozesse brauchen. Jeder Konversationsschritt ist maschinenlesbar auditierbar.
Das Projekt wurde Anfang 2026 erfolgreich an das interne Cloud-Ops-Team übergeben. Aus einem Prompt-Engineering-Experiment wurde eine skalierbare, enterprise-ready Architektur mit deterministischer Prozesssteuerung, Audit-Fähigkeit und echtem Self-Service-Charakter für die nutzenden Teams.
Anstatt Wochen zu warten und mehrfach nachzuhaken, können Data-Science- und Analytics-Teams ihre Ressourcenanforderungen jetzt im Dialog klären und direkt auslösen – in einer Umgebung, die regulatorischen Anforderungen eines Pharma-Konzerns gerecht wird.
Die Hauptlernkurve lag im Übergang vom Prompt-Engineering zur stabilen Architektur. Ein Chatbot, der in der Demo funktioniert, ist noch kein Produkt. Die Frage ist nicht "antwortet das LLM sinnvoll?", sondern "wie stelle ich sicher, dass jeder Prozesspfad auditierbar, testbar und reproduzierbar ist?".
Das FORM_STATE-Protokoll war die Antwort darauf – und gleichzeitig ein Muster, das sich auf viele andere Enterprise-Use-Cases übertragen lässt, in denen LLM-Flexibilität auf regulatorische Determinismusanforderungen trifft.
Wie wir ähnliche Systeme bauen:
30 Minuten, unverbindlich. Wir teilen, was wir in vergleichbaren Projekten gelernt haben.
Gespräch vereinbaren