Interaktive Chat-Anwendung, die es Nutzern ermöglicht, Fragen an einen Bestand von Unternehmensdokumenten zu stellen und präzise, quellenbasierte Antworten zu erhalten. Sämtliche KI-Verarbeitung erfolgt lokal.
Technische Highlights
- Lokales LLM (Ollama): Keine externen API-Aufrufe — volle Datensouveränität und DSGVO-Konformität
- RAG: Dokumente als Embeddings indexiert, relevanteste Passagen als Kontext für das LLM
- Blazor WASM: Reaktive Chat-Oberfläche mit Echtzeit-Streaming
- Fluxor State Management für Chat-Verlauf und UI-Zustand
- MediatR Pipeline für Dokumenten-Upload, Embedding-Generierung und Chat-Anfragen
Tech-Stack
Blazor WASMOllamaFluxorMediatRLLMRAG
Was dieses Projekt zeigt
Praktische Erfahrung mit LLMs, RAG-Architekturen, Vektordatenbanken und datenschutzkonformer KI-Implementierung.