Context Engineering: Die logische Weiterentwicklung des Prompt Engineering
Die Weiterentwicklung des Promptings heißt Context Engineering. Im Mittelpunkt stehen systematische Infrastrukturen für zuverlässigere KI-Anwendungen.

Lesezeit: 4 bis 6 Minuten
Inhalt:
- Was ist der Unterschied zwischen Context Engineering und Prompt Engineering?
- Wie ist Context Engineering aufgebaut?
- Welche neuen Rollen und Aufgaben entstehen damit?
- Fallbeispiel eines Kompositversicherers
Quellen: Online-Fachmagazine, wissenschaftliche Fachartikel, Blogartikel von Fachexperten, Unternehmens-Blogartikel
„Context Engineering is the discipline of designing and building dynamic systems that provides the right information and tools, in the right format, at the right time, to give a LLM everything it needs to accomplish a task.“ Philipp Schmidt, Senior AI Relation Engineer bei Google DeepMind
Kurz gesagt: Context Engineering sorgt dafür, dass das Modell genau die relevanten Informationen und Hilfsmittel bekommt, die es für eine fundierte Antwort braucht. Nicht schöner formulieren, sondern besser füttern. So entsteht aus einem einzelnen Prompt ein verlässlicher Arbeitsablauf, der Antworten nicht nur plausibel, sondern belastbar macht. In der Versicherungswelt ist das zentral, weil Deckungsbausteine, Klauseln, Annahmerichtlinien und Prozessschritte sauber belegt sein müssen.
Unterschiede zwischen Context Engineering und Prompt Engineering
Context Engineering ist die logische Weiterentwicklung des Prompt Engineering. Es bezeichnet den systematischen Aufbau von Infrastrukturen, die automatisch die richtigen Informationen zur richtigen Zeit bereitstellen. Während Prompting die Oberfläche optimiert, gestaltet Context Engineering die darunterliegende Architektur. Statt nur eine Zeichenkette zu senden, orchestriert das System mehrere Komponenten:
- Instruktionen als Leitplanken für das Modell
- Ein Kurzzeit-Gedächtnis des Gesprächsverlaufs
- Ein Langzeit-Gedächtnis mit Unternehmenswissen
- Gezielte Inhaltsabrufe aus Dokumenten und Datenbanken (RAG)
- Tool-Integration wie Tarifierung oder Bestandsführung
- Strukturierte Ausgabeformate inklusive Begründung und Quellen
Entscheidend ist die Qualität des eingebetteten Kontextes. KI-Agenten scheitern heute häufig nicht am Modell, sondern am fehlenden oder falsch strukturierten Kontext. Context Engineering liefert automatisch, nachvollziehbar und revisionssicher den relevanten Ausschnitt aus Bedingungen, Produktleitfäden oder Schadenrichtlinien.
Qualität durch Kuratierung und Versionierung
Ein häufiger Trugschluss ist, dass längere Kontexte automatisch bessere Ergebnisse liefern. Das stimmt nicht: Studien zeigen den „Position Bias“ – Informationen in der Mitte langer Kontexte gehen verloren. KI-Modelle verarbeiten Informationen am Anfang und Ende besser, außerdem führt zu viel Information zu „Rauschen“. Das Modell kann schwerer zwischen relevanten und irrelevanten Details unterscheiden und die Antwortqualität verschlechtert sich.
Lange Kontext-Modelle sind zwar leistungsstark, aber teuer. Retrieval-Augmented Generation (RAG) ist durch gezieltes Nachladen externer, prüfbarer Quellen oft effizienter. Denn je treffender der bereitgestellte Inhalt ist, desto besser die Entscheidung des Modells. Das Modell „lernt“ dabei nicht neu. Es nutzt den eingebundenen Kontext für fundierte Antworten. Darum braucht es kuratiertes, aktuelles und überprüfbares Wissen. Mit sauberer Versionierung bleibt nachvollziehbar, welche Quelle gegolten hat.
Kuratierung entscheidet, was in den Kontext gehört: Sie filtert Regeln, Klauseln und Tariflogik auf das Relevante. Einmal sauber definiert, lassen sich diese Bausteine erneut verwenden. Die Deckungsprüfung für Hausrat funktioniert mit kleinen Anpassungen auch für Wohngebäude. Versionierung datiert jeden Stand und jede Änderung.
Durch Versionisierung entsteht also Transparenz, durch Kuratierung Präzision – beides zusammen liefert einen schlanken, prüfbaren Kontext.
Architektur: Bausteine und Systemmuster
Context Engineering folgt nach Lingrui Mei et al. einer dreischichtigen Architektur:
- Retrieval & Generation Layer
RAG-Systeme können gezielt auf AVB, Richtlinien und andere versicherungsrelevante Dokumente zugreifen. Statt statischer Dokumentenabfragen ermöglichen dynamische Retrieval-Mechanismen kontextuelle Suchen basierend auf Schadenart, Produktlinie oder regulatorischen Anforderungen - Processing Layer
Klauselgerecht geschnittene Chunks halten Inhalte übersichtlich, Query-Rewriting übersetzt Fachbegriffe und Synonyme und Re-Ranking priorisiert Relevanz und Aktualität. In der Assekuranz ist eine klare Trennung von Regeltext, Auslegung und Präzedenzfällen entscheidend. - Management Layer
Die Versionierung verschiedener Produktgenerationen, automatische Zitation mit Klauselnummern und Session Memory sorgen für konsistente Beratungsverläufe. Compliance-konforme Protokollierung gewährleistet die Nachvollziehbarkeit für Audits.
Neue Kompetenz- und Skill-Anforderungen
Context Engineering verlagert den Fokus weg vom „guten“ Prompt hin zu sauber kuratiertem Wissen, verlässlichem Abruf und nachvollziehbarer Governance. Damit entstehen neue Rollen:
- Wissens-Kuratorinnen und -Kuratoren: Sie machen Versicherungswissen für KI-Modelle maschinenlesbar, versioniert und zitierfähig. Fachliche Context Owner im Underwriting und Schaden liefern Wortschatz, Negativlisten und Präzedenzfälle.
- Abruf-Verantwortliche für RAG: Sie pflegen Suchbegriffe und Indizes, tunen Relevanz aktiv durch Query Rewriting und Re-Ranking. So stellen sie weniger, aber passgenauen Kontext sicher.
- Kontext-Architektinnen und -Architekten: Sie verantworten an der Schnittstelle von Fachlichkeit, Data Engineering und Produkt das Gesamtbild. Sie zerlegen Geschäftsprobleme in kontextuelle Bausteine (Instruktionen, externes Wissen, Tools) und orchestrieren deren Zusammenbau unter harten Token-, Latenz- und Governance-Constraints. Dabei sichern sie durch kontinuierliche Qualitätsmessung auf Relevanz und Vollständigkeit, A/B-Tests von Varianten sowie eine lückenlose, strukturierte Protokollierung die Nachvollziehbarkeit.
Vom Prinzip zur Anwendung: Use Cases in der Assekuranz
Ein Praxisbeispiel des US-Unternehmens IngestAI zeigt, dass RAG die Schadenbearbeitung in der Assekuranz messbar beschleunigen kann. Ausgangspunkt der Fallstudie ist ein Kompositversicherer, der RAG implementiert hat. RAG-gestützte Chatbots und intelligente Dokumentenverarbeitung extrahieren automatisch relevante Informationen aus Schadenformularen, Policen und Belegen. Das System analysiert die Daten, erkennt Muster und stellt den Sachbearbeitern priorisierte Aufgaben und Empfehlungen bereit. Das Ergebnis laut IngestAI: 30 Prozent kürzere Durchlaufzeiten und 25 Prozent höhere Kundenzufriedenheit.
Im Sinne des Retrieval & Generation Layers ruft die Lösung gezielt interne Wissensquellen ab und erzeugt kontextuelle Antworten. Außerdem fördert RAG einen nachvollziehbaren Audit-Trail der genutzten Daten und Einsichten. Durch die Anbindung an vorhandene Kernsysteme (Policy-, Claims- und CRM-Plattformen) stehen aktuelle Daten zur Verfügung. Der Processing Layer zeigt sich in der Fallstudie durch die automatische Extraktion und Mustererkennung auf Dokument- und Falldatenebene, die die manuelle Arbeit reduziert und die Qualität von Empfehlungen erhöht. Der Management Layer schafft überprüfbare, erklärbare Entscheidungen, stärkt Fairness und Compliance und hält bewusst den Menschen „in the loop“.
Fazit
Context Engineering markiert einen Paradigmenwechsel für Versicherer. Statt bessere Prompts zu schreiben, geht es um systematische Infrastrukturen für zuverlässige KI-Anwendungen. Wirksame KI entsteht nicht primär durch größere Modelle, sondern durch einen gezielt gestalteten Informationsfluss. Dabei geht es darum, das Richtige auszuwählen, sinnvoll zu strukturieren, im Verlauf weiterzuentwickeln, um so die Aufmerksamkeit des Systems auf das Wesentliche zu lenken und in handlungsrelevante Einsichten zu übersetzen.
Quellen:
Philipp Schmid (30.06.2025): The New Skill in AI is Not Prompting, It's Context Engineering, zuletzt aufgerufen am 15.10.2025
Sundeep Teki (26.06.2025): Context Engineering: A Framework for Robust Generative AI Systems, zuletzt aufgerufen am 15.10.2025
Lingrui Mei et al. (21.07.2025): A Survey of Context Engineering for Large Language Models, zuletzt aufgerufen am 15.10.2025
Volodymyr Zhukov, Ingest AI (22.03.2024): Retrieval-Augmented Generation in Insurance: Enhancing Accuracy, Efficiency, and Customer Experience, zuletzt aufgerufen am 15.10.2025
Sudheer Singamsetty (11.09.2025): Why Context Is the New Currency in AI: From RAG to Context Engineering, zuletzt aufgerufen am 15.10.2025