RAG
Retrieval-Augmented Generation
Technik, die ein LLM um dynamisches Suchen in Unternehmensdokumenten erweitert — die Antwort entsteht durch Kombination des gefundenen Kontexts und des generativen Modells.
Was ist RAG?
RAG (Retrieval-Augmented Generation) ist ein architektonisches Muster, das ein Large Language Model (LLM) mit dynamischer Suche in Unternehmensdokumenten und -daten kombiniert. Anstatt dass das Modell nur aus dem antwortet, was es während des Trainings gelernt hat (was zu „Halluzinationen” und veralteten Informationen führt), sucht RAG zunächst relevante Passagen in internen Dokumenten und sendet diese dann als Kontext an das Modell zur Generierung der Antwort.
Technische Architektur von RAG:
- Indizierung — Dokumente werden in kleinere Chunks aufgeteilt (typischerweise 200–500 Wörter)
- Vektorisierung (Embeddings) — jeder Chunk wird in einen numerischen Vektor umgewandelt
- Speicherung — Vektoren werden in einer Vektordatenbank gespeichert (Pinecone, Qdrant, pgvector)
- Abfrage — die Nutzerfrage wird ebenfalls in einen Vektor umgewandelt
- Retrieval — die Top-K ähnlichsten Chunks werden gefunden
- Generation — das LLM generiert eine Antwort mit dem Kontext aus den gefundenen Chunks
Im deutschen B2B-Kontext löst RAG Probleme wie „Wo haben wir die Richtlinie zu Reisekostenerstattungen?” oder „Welche Preise haben wir dem Unternehmen XYZ in den letzten 3 Jahren berechnet?” — die Antwort entsteht direkt aus Unternehmensdokumenten, mit Quellenangabe.
Wann wird es eingesetzt
RAG ist eine Schlüsseltechnologie für:
- Unternehmens-Chatbots, die aus internen Dokumenten antworten
- Semantische Suche in Verträgen, Richtlinien, Wiki
- Automatisierung des Supports — erste Linie antwortet auf Basis der Wissensdatenbank
- Analyse großer Archive (DSGVO Right-to-Erasure-Audit)
Siehe Modul Dateien, Modul Verträge und KI-Seite.
Verwandte Begriffe
- AI Agent — ein Agent nutzt RAG oft als eines seiner Werkzeuge. Siehe /de/glossar/ai-agent.
- MCP — Protokoll zur Verbindung eines RAG-Systems mit einem Agenten. Siehe /de/glossar/mcp.
- OCR — gescannte Dokumente müssen vor der RAG-Indizierung OCR-verarbeitet werden. Siehe /de/glossar/ocr.
In Modulario
Modulario nutzt RAG über Dokumente im Modul Dateien und Verträge — wer eine Antwort benötigt, stellt eine Frage in natürlicher Sprache und das System antwortet mit Verweisen auf konkrete Dokumente. Die Indizierung erfolgt automatisch nach dem Hochladen einer Datei.
Die interne RAG-Infrastruktur von Modulario garantiert, dass Kundendaten nie für das Training von Modellen verwendet werden und die EU-Infrastruktur nicht verlassen. Der Kunde sieht, aus welchen Dokumenten die KI Informationen bezogen hat, und kann die Quellen über RBAC oder ReBAC einschränken.
Verwandte Begriffe
AI Agent
Ein auf LLM basierendes Softwaresystem, das autonom Aufgaben löst — plant Schritte, nutzt Werkzeuge und ruft APIs auf, um ein Ziel zu erreichen.
MCP
Offenes Protokoll von Anthropic für die standardisierte Anbindung von KI-Assistenten an externe Tools, Daten und Dienste.
OCR
Technologie zur Texterkennung aus Bildern oder gescannten Dokumenten — wandelt Pixeldaten in Text um, der weiterverarbeitet werden kann.
Workflow Automation
Technologie, die einzelne Aufgaben und Anwendungen zu automatisierten Prozessen verkettet — ohne menschlichen Eingriff bei Routineschritten.
API
Schnittstelle, über die verschiedene Softwaresysteme miteinander kommunizieren — im B2B-SaaS typischerweise REST API oder GraphQL über HTTPS.
Verwandte Modulario-Module
Implementieren Sie RAG in Ihrem Unternehmen?
Modulario deckt die meisten B2B-Prozesse modular ab — setzen Sie nur das ein, was Sie jetzt brauchen, und wachsen Sie schrittweise. Buchen Sie eine kostenlose Beratung.
Beratung buchen