Kontext schlägt Prompt

Wie Du Künstliche Intelligenz in Deinem Unternehmen endlich sinnvoll nutzt


Die ersten Monate mit KI waren wie eine neue Spielwiese:
Alle wollten „prompten“. Wer gute Ergebnisse aus ChatGPT, Copilot & Co. holen wollte, sollte „Prompt-Engineer“ werden – oder zumindest so tun.

Doch mittlerweile zeigt sich:
Nicht der Prompt entscheidet über den Erfolg. Sondern der Kontext.

Denn KI-Modelle wie GPT-4, Mistral, Claude oder Copilot reagieren sensibel auf die Umgebung ihrer Eingaben. Je mehr sie über den Zweck, die Rolle, die Zielgruppe oder das bestehende System wissen, desto präziser, schneller und brauchbarer sind die Antworten.

Was ist „Kontext“ in der KI-Nutzung?

Kontext meint:

  • Fachliche Umgebung: Branche, Abteilung, Sprache, Zielsetzung
  • Systemzustand: Welche Software, Daten, APIs oder Prozesse sind beteiligt?
  • Zielgruppe: Wer soll die Antwort später nutzen oder verstehen?
  • Aufgabenzusammenhang: Was wurde vorher schon getan? Was ist erlaubt? Was ist tabu?

Beispiel:
Ein Prompt wie „Schreibe mir ein Angebotsschreiben“ kann völlig verschieden ausfallen:
– für einen Handwerksbetrieb
– für eine Kanzlei
– für einen IT-Dienstleister, der DSGVO-konforme KI-Projekte anbietet

Ohne Kontext rät die KI.
Mit Kontext arbeitet sie.

Vier praxisnahe Wege, um Kontext sinnvoll zu übergeben

1. Direkt im Prompt – strukturiert denken, statt magisch formulieren
Viele fortgeschrittene Nutzer haben aufgehört, „clevere“ Prompts zu basteln – und schreiben stattdessen kleine Briefings.

Beispiel:

„Ich bin IT-Leiter eines KMU mit 25 Mitarbeitern. Wir nutzen Access, Power BI, Teams und SQL Server. Ich brauche eine Schulungspräsentation, die unseren Mitarbeitenden den Einstieg in Copilot erklärt – inklusive Datenschutz- und Supporthinweisen. Bitte im Stil einer PowerPoint-Vorlage, maximal 10 Folien.“

Pro-Tipp: Verwende feste Strukturen (z. B. Who / What / Why / Style / Don’t).

2. Persistenter Kontext in ChatGPT, Copilot und anderen Tools

  • ChatGPT (Plus / Enterprise): Über „Custom Instructions“ oder im Unternehmenskontext über „Memory“ können systemübergreifend Informationen gespeichert werden:
    – Was ist die Rolle des Nutzers?
    – Wie soll geantwortet werden?
    – Welche bevorzugte Tonalität, welche Quellen, welche Vorgaben?
  • Microsoft Copilot (M365 / Azure):
    Copilot zieht Kontext aus:
    – Microsoft Graph (E-Mails, Kalender, OneDrive, Teams)
    – Freigegebenen SharePoint-Bereichen
    – Office-Dateien, CRM-Systemen, Power Platform
    → Wichtig: Zugriff regeln, Berechtigungen setzen!
  • Google Gemini, Mistral, Claude:
    ermöglichen kontextuelle Projekt-Zusammenfassungen oder komplette Dokument-Einbindungen über API oder Workspace-Verknüpfung.

3. Externe Datenquellen einbinden – über Connectoren, APIs oder Plugins

Professionelle KI-Arbeitsplätze integrieren gezielt:

  • Datenbanken (SQL, Dataverse, ERP)
  • Dateisysteme (z. B. SharePoint, Netzlaufwerke, S3)
  • Drittsysteme über Connectoren (z. B. Salesforce, SAP, Jira)

Tools wie Microsoft Copilot Studio, Power Automate, LangChain, Flowise, oder Zapier erlauben es, diese Quellen in die KI-Kommunikation einzubinden.

Ergebnis:
Die KI kennt plötzlich Rechnungsnummern, Kundennamen, Liefertermine – ohne dass Du sie per Hand ins Prompt kopierst.

4. Eigene KIs mit RAG – lokal, sicher, domänenspezifisch

Für besonders sensible oder proprietäre Daten reicht der Cloud-Weg nicht mehr aus. Hier kommt RAG (Retrieval-Augmented Generation) ins Spiel.

Kurz gesagt:
Du kombinierst ein Sprachmodell (z. B. Mistral, LLaMA, GPT4All) mit einer eigenen Wissensdatenbank. Die KI holt sich aus dieser Datenbank die passenden Fakten – und baut sie live in ihre Antwort ein.

Typische RAG-Szenarien in Unternehmen:

  • Zugriff auf interne Wiki-Seiten, technische Handbücher, alte Projektdokumentationen
  • Fragen zu Produkten, Preisen, internen Prozessen
  • Nutzung in lokalen Umgebungen ohne Internet

Tools & Frameworks für RAG:

  • LangChain / LlamaIndex (für Python-Entwickler)
  • Haystack (Open Source, performant)
  • LM Studio / Ollama / Open WebUI (für Windows- oder Mac-Einsteiger)
  • ChromaDB / Qdrant / Weaviate als Vektorspeicher

Vorteil: Datenschutz, Kontrolle, Geschwindigkeit
Nachteil: Initialer Aufwand (Training, Datenpflege, Hardware)

Wer heute noch denkt, ein gut formulierter Prompt reicht –
arbeitet mit einer KI wie mit einer Glaskugel.

Sönke Schäfer, Sommer 2025, SeSoft GmbH

Die Zukunft gehört denen, die Kontext liefern können.
– strukturiert
– systematisch
– und mit Zugang zu relevanten Daten

Also nicht:
„Mach mir was mit KI.“

Sondern:
„Hier sind meine Daten, das ist mein Ziel – hilf mir, daraus ein Ergebnis zu machen.“

PS:
Prompting ist wie Smalltalk.
Kontext ist wie Fachwissen.
Beides kann charmant sein – aber nur eines bringt Ergebnisse.

Du brauchst Hilfe beim Aufbau eines eigenen KI-Kontexts im Unternehmen?
Sprich mit dem Datenschäfer. Ich analysiere, strukturiere und automatisiere Daten – und schaffe so die Grundlage für jede sinnvolle KI-Nutzung. Lokal. Sicher. Praxisnah.