Graphic presenting the visual appearance of the AI chatbot implemented on the ProjektMagazin platform.

KI-Dokumenten Chatbot für ProjektMagazin.de

Wir haben für ProjektMagazin einen von KI angetriebenen Dokumenten-Chatbot entwickelt, der Minuten manueller Suche in Sekunden intelligenter Konversation umwandelt und den Benutzern sofortigen Zugang zu Tausenden von Projektmanagement-Ressourcen bietet.

Kunde: ProjektMagazin.de

Branche: Wissensmanagement

Status: Produktion (Kunde zufrieden)

Über das ProjektMagazin

ProjektMagazin.de ist eine auf Drupal basierende Online-Plattform, die Fachleuten im deutschsprachigen Raum praktische Ressourcen für das Projektmanagement zur Verfügung stellt.

Mit Beiträgen von Fachautoren und bewährten Methoden hilft ProjektMagazin diesen Fachleuten, effizienter zu arbeiten und bessere Ergebnisse zu erzielen. Das im Jahr 2000 gegründete Magazin bietet Artikel, gebrauchsfertige Vorlagen und Methoden zur Verbesserung der Projekteffektivität.

Mit dem Wachstum der Wissensdatenbank verbrachten die Nutzer der Plattform jedoch zu viel Zeit mit der Suche nach Informationen, die bereits im System vorhanden waren, was zu Produktivitätsverlusten und Frustration führte. Der Kunde wollte diese Herausforderungen angehen und seine umfangreiche Inhaltsbibliothek sofort zugänglich machen.

Droptica, mit Erfahrung im Bereich KI, arbeitete mit ihm zusammen, um eine intelligente Lösung zu entwickeln.

Herausforderung

ProjektMagazin.de benötigte eine intelligente Möglichkeit, damit Nutzer auf die umfangreiche Wissensdatenbank zugreifen können, ohne Hunderte von Dokumenten und Artikeln manuell durchsuchen zu müssen.

Die Drupal-basierte Plattform des Kunden erforderte eine Lösung, die folgende Anforderungen erfüllte:

  • Sofortige und präzise Antworten auf Nutzerfragen,
  • Suche über mehrere Inhaltstypen und Taxonomien hinweg,
  • Ständige Aktualisierung der Informationen über das CMS,
  • Effiziente Skalierung ohne steigende Kosten.

Lösung

Wir haben einen produktionsreifen KI-Chatbot geliefert, der die Art und Weise revolutioniert hat, wie die Nutzer des ProjektMagazins auf Informationen zugreifen. Unser intelligentes Dokumentensuchsystem versteht Fragen in natürlicher Sprache, durchsucht indizierte Inhalte, bewertet die Relevanz von Dokumenten und generiert präzise Antworten auf der Grundlage der relevantesten gefundenen Informationen.

Das Ergebnis ist ein System, das stundenlange manuelle Suche in Sekunden intelligenter Konversation verwandelt.

 

Was wir gebaut haben

Graphic presenting the AI chatbot implemented on the ProjektMagazin client platform.

1. Intelligentes System zur Klassifizierung von Fragen

Wir haben ein intelligentes Routing-System implementiert, das jede eingehende Frage automatisch analysiert, um die beste Vorgehensweise zu ermitteln.

  • Wenn Benutzer einfache Fragen wie „Warum sind Sie hier?“ oder „Was können Sie tun?“ stellen, erkennt unser System diese als allgemeine Anfragen und leitet sie direkt an einen leichtgewichtigen Antwortgenerator weiter.
  • Bei dokumentspezifischen Fragen aktiviert das System unsere vollständige Abruf-Pipeline.

Diese intelligente Klassifizierung hilft, API-Kosten zu sparen, indem unnötige Suchvorgänge in der Dokumentendatenbank für Fragen, die dies nicht erfordern, vermieden werden.

Das Ergebnis:

Der Kunde erzielt nun schnellere Antwortzeiten und hält gleichzeitig die Betriebskosten vorhersehbar und nachhaltig, selbst wenn die Nutzung zunimmt.

Project manager using the AI chatbot on a platform with materials and articles on project management.

2. Erweiterte Dokumentenindizierung mit umfangreichen Metadaten

Das Droptica-Team hat ein umfassendes Indexierungssystem entwickelt, das über JSON-APIs direkt mit der Drupal-Datenbank von ProjektMagazin verbunden ist. Im Gegensatz zur einfachen Textextraktion erfasst unser System reichhaltige Metadaten zu jedem Dokument:

  • Kategorie- und Taxonomiezuordnungen für eine präzise Filterung.
  • Autoreninformationen und IDs für die Quellenangabe.
  • Benutzerdefinierte Eigenschaften, die für die Inhaltsstruktur von ProjektMagazin spezifisch sind.

Dieser metadatenreiche Ansatz ermöglicht es dem Chatbot, nicht nur genaue Antworten zu geben, sondern auch den richtigen Kontext und die Quelle anzugeben. Die Nutzer können genau sehen, aus welchen Dokumenten und Kategorien ihre Antworten stammen, was Vertrauen und Transparenz schafft.

Das Ergebnis:

Wir haben die Indizierungsarchitektur so konzipiert, dass sie vollständig erweiterbar ist. Der Kunde kann problemlos neue Inhaltstypen hinzufügen – seien es Artikel, Taxonomiebegriffe oder völlig neue Entitätstypen –, ohne dass systemweite Änderungen erforderlich sind. Jeder Inhaltstyp verfügt über einen eigenen Endpunkt und eine eigene Indizierungspipeline, wodurch die Erweiterung einfach und wartungsfreundlich ist.

Graphic showing the AI chatbot with a response and additional resource sources for the user.

3. Zweistufige Dokumentbewertung für höchste Genauigkeit

Wir haben einen innovativen zweistufigen Abrufprozess implementiert, der die Antwortqualität erheblich verbessert:

  • Stufe 1: Grober Abruf
  • Unsere Vektorsuche ruft etwa 20 Dokumentfragmente ab, die relevante Informationen enthalten könnten.
     
  • Stufe 2: LLM-gestützte Bewertung
  • Jeder potenzielle Ausschnitt wird dann vom LLM auf seine tatsächliche Relevanz für die jeweilige Frage hin bewertet. Das System bewertet jeden Ausschnitt und wählt nur die 12 relevantesten Informationen für die Generierung der Antwort aus.

Das Ergebnis:

Dieser Ansatz stellt sicher, dass die Nutzer Antworten erhalten, die auf wirklich relevanten Inhalten basieren und nicht nur semantisch ähnliche Texte sind. Der Kunde berichtete von einer deutlichen Verbesserung der Antwortgenauigkeit und der Nutzerzufriedenheit nach der Einführung der Dokumentenbewertung.

4. Echtzeit-Inhaltssynchronisierung

Wir haben ein Webhook-basiertes System entwickelt, das das Wissen des Chatbots stets auf dem neuesten Stand hält. Wenn Redakteure Inhalte in Drupal speichern oder aktualisieren, führt unser System folgende Schritte aus:

  1. Es erhält sofort eine Benachrichtigung über Webhook.
  2. Es indiziert nur die geänderten Inhalte neu.
  3. Aktualisiert die Vektordatenbank in Echtzeit.

Zusätzlich haben wir einen nächtlichen Synchronisierungsjob implementiert, der alle versäumten Aktualisierungen erfasst und eine vollständige Datenkonsistenz gewährleistet.

Das Ergebnis:

Die Benutzer erhalten immer Antworten, die auf den absolut neuesten Informationen basieren. Wenn das Marketingteam einen neuen Artikel veröffentlicht oder ein Richtliniendokument aktualisiert, weiß der Chatbot innerhalb von Sekunden davon – nicht erst nach Stunden oder Tagen.

5. Strategisches Caching von Antworten

Wir haben eine intelligente Caching-Ebene implementiert, die häufig gestellte Fragen identifiziert und deren Antworten speichert. Wenn eine zwischengespeicherte Frage erneut gestellt wird, gibt das System die Antwort sofort zurück, ohne kostspielige LLM-API-Aufrufe zu tätigen.

Diese Optimierung bietet mehrere Vorteile:

  • Nahezu sofortige Antwortzeiten für häufig gestellte Fragen.
  • Erhebliche Kostensenkung durch Vermeidung redundanter API-Aufrufe.
  • Geringere Serverauslastung während Spitzenzeiten.
  • Verbesserte Benutzererfahrung durch durchgehend schnelle Antworten.

Das Ergebnis:

Der Kunde kann Antwortzeiten von unter 100 ms für zwischengespeicherte Anfragen erzielen und gleichzeitig eine umfassende Abdeckung für neue Fragen gewährleisten.

Project manager using the AI chatbot to search for documents and articles on the platform.

6. Integrierte Sicherheitsmaßnahmen des KI-Dokumenten-Chatbots

Wir haben einen robusten Schutz vor Prompt-Injection implementiert, um böswillige Versuche, den Chatbot zu manipulieren, abzuwehren. Unsere Sicherheitsmaßnahmen umfassen:

  • Eingabevalidierung, um Injection-Versuche zu erkennen und zu blockieren.
  • Isolierung der System-Prompts, um unbefugte Änderungen von Anweisungen zu verhindern.
  • Antwortfilterung, um sicherzustellen, dass die Ausgaben innerhalb der zulässigen Grenzen bleiben.
  • Kontinuierliche Überwachung, um neue Angriffsmuster zu identifizieren.

Das Ergebnis:

Tests haben bestätigt, dass die implementierten Sicherheitsmaßnahmen gängige Prompt-Injection-Versuche wirksam blockiert und sichergestellt haben, dass die Antworten des Chatbots innerhalb der vorgesehenen Grenzen geblieben sind.

Graphic showing the AI chatbot, where you can provide feedback on the conversation.

7. Industriestandard-Tools zur Überwachung und Verbesserung

Wir haben den Chatbot mit branchenüblichen Tools und Frameworks entwickelt, die robuste Überwachungsfunktionen und Flexibilität für kontinuierliche Verbesserungen bieten. Dieser Ansatz hat uns Folgendes gebracht:

  • Vollständige Beobachtbarkeit durch LangSmith zur Verfolgung aller LLM-Interaktionen und -Kosten.
  • Erfassung von Nutzer-Feedback, das direkt in die Benutzeroberfläche integriert ist, um Qualitätsbewertungen zu den Antworten des Chatbots zu sammeln.
  • Flexible Architektur, die eine einfache Integration neuer Funktionen und Fähigkeiten ermöglicht.
  • Überwachung auf Produktionsniveau, um Probleme und Optimierungsmöglichkeiten zu identifizieren.
  • Framework-Unabhängigkeit, die es uns ermöglicht, das System an die Fortschritte der KI-Technologie anzupassen und weiterzuentwickeln.

Das Ergebnis:

Diese Tooling-Infrastruktur stellt sicher, dass der Chatbot kontinuierlich überwacht, verbessert und an neue Best Practices angepasst werden kann, ohne an eine bestimmte proprietäre Plattform gebunden zu sein. Das Feedback der Benutzer zur Antwortqualität liefert wertvolle Erkenntnisse für die kontinuierliche Weiterentwicklung des Systems.

Auswirkungen auf das Geschäft und betriebliche Verbesserungen

Zeitersparnis

Benutzer, die zuvor 10 bis 15 Minuten mit der Suche in der Dokumentation verbracht haben, erhalten nun innerhalb von Sekunden präzise Antworten. Dies führt zu erheblichen Produktivitätssteigerungen im gesamten Unternehmen.

Kosteneffizienz

Unser intelligentes Caching- und Frage-Routing-System sorgt für vorhersehbare und nachhaltige API-Kosten. Der Kunde betreibt den Chatbot zu einem Bruchteil der Kosten, die bei einfachen Implementierungen anfallen würden.

Immer aktuelle Informationen

Echtzeit-Indizierung bedeutet, dass Benutzer niemals mit veralteten Informationen arbeiten. Wenn sich Inhalte ändern, weiß der Chatbot sofort Bescheid.

Skalierbarkeit ohne Komplexität

Die modulare Architektur ermöglicht es dem ProjektMagazin, neue Inhaltstypen hinzuzufügen und Funktionen zu erweitern, ohne dass systemweite Neuprogrammierungen erforderlich sind.

Der Kunde berichtet von einer hohen Benutzerzufriedenheit und hat bereits visuelle Verbesserungen der Benutzeroberfläche als nächste Verbesserungsphase identifiziert – ein klares Zeichen dafür, dass die Kernfunktionalität alle seine Anforderungen erfüllt.

Technologieauswahl

Wir haben unseren Technologie-Stack auf der Grundlage von Produktionssicherheit, Skalierbarkeit und langfristiger Wartbarkeit ausgewählt.

KI & Maschinelles Lernen

Wir haben uns für LangChain aufgrund seiner ausgereiften RAG-Fähigkeiten und für LangGraph zur Orchestrierung komplexer Entscheidungsbäume entschieden. Trotz einiger Kritik aus der Community hinsichtlich der Komplexität des Frameworks haben sich diese Tools als effektiv für die Erstellung produktionsreifer KI-Workflows erwiesen. Ihre aktive Weiterentwicklung, die starke Community und die solide finanzielle Unterstützung machten sie zu einer sicheren Wahl für ein missionskritisches System. Um die Produktionssicherheit und kontinuierliche Verbesserung zu gewährleisten, haben wir LangSmith für eine umfassende Überwachung und Fehlerbehebung integriert.

Elastic Search für Vektorspeicherung

Wir haben uns für Elastic Search als Vektordatenbank entschieden, weil sie sich als skalierbar erwiesen hat, über effiziente Funktionen für die Ähnlichkeitssuche verfügt und sich hervorragend in das LangChain-Ökosystem integrieren lässt. Dank dieser Wahl kann ProjektMagazin.de seine aktuelle Dokumentensammlung verwalten und gleichzeitig problemlos skalieren, um zukünftiges Wachstum zu bewältigen.

Benutzerdefinierte Chat-Oberfläche

Anstatt eine vorgefertigte Lösung anzupassen, haben wir eine maßgeschneiderte Chat-Oberfläche entwickelt, die sich nahtlos in die Drupal-Plattform von ProjektMagazin integrieren lässt. Dadurch hatten wir die vollständige Kontrolle über die Benutzererfahrung und konnten den Aufwand und die Einschränkungen von Frameworks von Drittanbietern vermeiden. Die Oberfläche verfügt über ein responsives Design, das sowohl für Desktop- als auch für Mobilgeräte optimiert ist, sodass Benutzer von jedem Gerät aus auf das Wissen zugreifen können.

Python für die Backend-Verarbeitung

Wir haben die Backend-API in Python entwickelt, um das umfangreiche Ökosystem der KI-/ML-Bibliotheken zu nutzen und eine optimale Integration mit LangChain und Elastic Search sicherzustellen.

Gefällt Ihnen dieses Projekt? Entwickeln Sie gemeinsam mit uns einen KI-Dokumenten-Chatbot!

Vereinbaren Sie einen kostenlosen Termin, um Ihre Ziele und Anforderungen für einen KI-Chatbot zu besprechen.

Wir setzen uns mit Ihnen in Verbindung, um zu erörtern, wie wir Ihnen dabei helfen können, Ihre Inhalte für Nutzer sofort zugänglich zu machen.