Home / Referenzen / KI-Chatbot für Cloud-Provisioning im Pharma-Konzern
Case Study · Pharma

KI-Chatbot für Cloud-Provisioning im Pharma-Konzern

Globaler Pharma-Konzern
DauerHandover Q1 2026
TeamCross-funktional: Architecture, Engineering, Cloud Ops
StackAWS Bedrock · Claude Sonnet 4.5 · React · MCP · Snowflake · S3
Enterprise-ready
Skalierbare Architektur
Self-Service
Statt manueller Formulare
SSE-Streaming
Echtzeit-Interaktion

Ausgangslage

In einem globalen Pharma-Konzern lief das Provisioning von Cloud-Ressourcen – insbesondere Snowflake-Datenbanken und S3-Buckets – über komplexe statische Formulare mit mehreren Freigabe- und Validierungsstufen. Für die antragstellenden Teams bedeutete das: wochenlange Durchlaufzeiten, wiederholte Rückfragen, fehleranfällige manuelle Validierung und spürbare Reibung bei jeder neuen Analyse- oder Data-Science-Initiative.

Die Cloud-Ops-Teams wiederum waren mit repetitiver Prüfung gleichartiger Anträge beschäftigt – Zeit, die für strategische Weiterentwicklung der Plattform fehlte. Eine Verbesserung über zusätzliche Formularfelder oder Workflow-Tools wäre nur inkrementell gewesen. Der eigentliche Hebel lag in einem fundamental anderen Interaktionsmodell.

Was wir gebaut haben

Wir haben einen KI-gestützten Chatbot entwickelt, der den gesamten Provisioning-Prozess über natürliche Sprache abwickelt – von der Bedarfserfassung über die Validierung bis zur eigentlichen Bereitstellung der Ressourcen. Der Chatbot ist nicht als isoliertes Experiment konzipiert, sondern als enterprise-ready Komponente in der bestehenden Cloud-Landschaft.

  • AWS Bedrock mit Claude Sonnet 4.5 als LLM-Layer – Enterprise-konformes Hosting, keine Daten verlassen die kontrollierte Umgebung
  • SSE-Streaming (Server-Sent Events) ins React-Frontend – Antworten erscheinen in Echtzeit, ohne klassisches Request-Response-Warten
  • MCP-Integration (Model Context Protocol) für direkte Ausführung von SQL in Snowflake und Provisioning-Operationen in S3
  • FORM_STATE-Protokoll – jede LLM-Antwort enthält ein verstecktes JSON-Objekt, das den deterministischen Prozesszustand abbildet
  • Automatisierte Integrationstests auf Basis des FORM_STATE-Protokolls – Prozesspfade sind testbar, obwohl die Konversation dynamisch ist

Das FORM_STATE-Protokoll war der entscheidende architektonische Baustein: Es verbindet die Flexibilität eines LLMs mit der deterministischen Nachvollziehbarkeit, die Enterprise-Prozesse brauchen. Jeder Konversationsschritt ist maschinenlesbar auditierbar.

Ergebnisse

Das Projekt wurde Anfang 2026 erfolgreich an das interne Cloud-Ops-Team übergeben. Aus einem Prompt-Engineering-Experiment wurde eine skalierbare, enterprise-ready Architektur mit deterministischer Prozesssteuerung, Audit-Fähigkeit und echtem Self-Service-Charakter für die nutzenden Teams.

Anstatt Wochen zu warten und mehrfach nachzuhaken, können Data-Science- und Analytics-Teams ihre Ressourcenanforderungen jetzt im Dialog klären und direkt auslösen – in einer Umgebung, die regulatorischen Anforderungen eines Pharma-Konzerns gerecht wird.

Lessons Learned

Die Hauptlernkurve lag im Übergang vom Prompt-Engineering zur stabilen Architektur. Ein Chatbot, der in der Demo funktioniert, ist noch kein Produkt. Die Frage ist nicht "antwortet das LLM sinnvoll?", sondern "wie stelle ich sicher, dass jeder Prozesspfad auditierbar, testbar und reproduzierbar ist?".

Das FORM_STATE-Protokoll war die Antwort darauf – und gleichzeitig ein Muster, das sich auf viele andere Enterprise-Use-Cases übertragen lässt, in denen LLM-Flexibilität auf regulatorische Determinismusanforderungen trifft.

Relevante Leistungen

Wie wir ähnliche Systeme bauen:

Ähnliches Projekt in Ihrem Haus?

30 Minuten, unverbindlich. Wir teilen, was wir in vergleichbaren Projekten gelernt haben.

Gespräch vereinbaren