GenAI im Kundenservice: Effizientere Service Requests mit RAG

Kundenanfragen schneller und präziser beantworten – ohne hohe manuelle Aufwände? Eine Unternehmensspezifisch trainierte KI macht es möglich. Durch den Einsatz von Retrieval-Augmented Generation (RAG) entstehen kontextbezogene Antwortvorschläge. RAG kombiniert zwei Prinzipien: Die KI greift nicht nur auf ihr trainiertes Modell zurück, sondern ergänzt Antworten durch aktuelle und relevante Unternehmensdaten.

In diesem Artikel werden wir einen detaillierten Einblick in die Integration von CustomGPT.ai in den Service Request Prozess einer Autorengesellschaft geben, den wir als Implementierungspartner erfolgreich umgesetzt haben. Ziel war es, den gesamten Prozess der Bearbeitung von Serviceanfragen zu automatisieren, um nicht nur die Effizienz zu steigern, sondern auch die Zufriedenheit der Kunden zu verbessern.

Was ist Retrieval-Augmented-Generation (RAG)?

Retrieval-Augmented Generation (RAG) stellt eine innovative Methode vor, die die Leistung von großen Sprachmodellen (Large Language Models, LLMs) optimiert. Dabei werden externe Wissensquellen außerhalb der herkömmlichen Trainingsdaten vor der Antwortgenerierung herangezogen. Diese Technik erweitert die Möglichkeiten von LLMs durch deren Anwendung auf spezialisierte Themen oder interne Daten einer Organisation, ohne dass ein erneutes Trainieren des Modells erforderlich ist. Mit RAG wird die Genauigkeit und Relevanz der Antworten verbessert, indem sichergestellt wird, dass die Informationen aus zuverlässigen Quellen stammen. Auf diese Weise sind Unternehmen in der Lage, ihre KI-Systeme auf kosteneffiziente Weise anzupassen und gleichzeitig die Qualität der generierten Antworten zu verbessern, ohne dabei auf kostspielige Trainingsverfahren angewiesen zu sein.

Warum ist RAG wichtig?

LLMs sind eine wichtige Technologie im Bereich der künstlichen Intelligenz. Allerdings weisen diese Modelle von Natur aus eine gewisse Unvorhersehbarkeit auf, weshalb ihre generierten Antworten oft als "halluziniert" bezeichnet werden. Das Modell erzeugt Antworten, die faktisch ungenau oder völlig erfunden sein können. Hinzu kommt, dass die Trainingsdaten der LLMs auf einem festen Stand des Wissens zu einem bestimmten Zeitpunkt basieren, was bedeutet, dass sie statisch bleiben und nicht die aktuellen Entwicklungen widerspiegeln.

Zu den Herausforderungen gehören unter anderem folgende Punkte:

  • Generierung von fehlerhaften und sachlich falschen Informationen, wenn keine Antworten zur Verfügung stehen.
  • Generierung von Antworten auf der Grundlage von veralteten Daten
  • Generierung von Antworten auf der Basis unzuverlässiger Quellen

Hier setzt RAG an und bietet einen Ansatz, einige dieser Herausforderungen anzugehen. Das RAG führt einen Retrievalprozess durch. Dabei wird die Eingabeaufforderung verwendet, um relevante Informationen aus der externen Wissensbasis zu extrahieren. Dabei wird die Eingabe in eine Vektordarstellung umgewandelt und mit der Vektordatenbank abgeglichen. Basierend auf dem Prompt werden kontextbezogene Informationen extrahiert. Im nächsten Schritt, dem Anreicherungsschritt, wird der Prompt mit dem relevanten Kontext angereichert. Im Generierungsschritt wird der angereicherte Prompt an den LLM übergeben, der seine generativen Fähigkeiten nutzt, um aus den bereitgestellten Informationen eine kontextbezogene Antwort zu erzeugen. Durch die Kombination von Retrieval, Anreicherung und Generierung stellt RAG sicher, dass die Antwort sowohl informativ als auch direkt auf die gestellte Anfrage zugeschnitten ist.

RAG-Modell für KI-Antworten

Vorteile von RAG

  • Erhöhte Genauigkeit: RAG ermöglicht es dem Modell, auf externe zuverlässige Datenquellen zuzugreifen, um genauere und relevantere Antworten zu generieren. Dadurch werden Fehler, die auf fehlende Informationen im Modell selbst zurückzuführen sind, reduziert. Auf diese Weise reduziert RAG die Wahrscheinlichkeit von „Halluzinationen“ oder Fehlinterpretationen von Informationen durch das Modell, da es auf zuverlässige Quellen zurückgreift, anstatt alle Informationen nur aus dem eigenen Wissensspeicher zu generieren.
  • Aktualität des Wissens: RAG bietet Zugriff auf aktuelle Informationen aus externen Quellen, um die Relevanz und Aktualität der Antworten sicherzustellen – ohne dass das Modell ständig mit neuen Daten trainiert werden muss. Stattdessen können die externen Wissensquellen selbst gepflegt und aktualisiert werden, wodurch die Aktualität der Informationen gewährleistet bleibt.
  • Erweiterung von Anwendungsbereichen: RAG erweitert die Einsatzmöglichkeiten von LLMs, indem es ihnen den gezielten Zugriff auf spezielle Fachgebiete oder organisationsinterne Wissensdatenbanken ermöglicht, ohne dass eine erneute Modellschulung erforderlich ist.
  • Vertrauenswürdige Antworten: Durch die Verwendung zuverlässiger Wissensquellen können die Antworten, die von RAG generiert werden, das Vertrauen der Nutzerinnen und Nutzer stärken, da sie wissen, dass die Informationen aus vertrauenswürdigen Quellen stammen.

Was ist CustomGPT.ai und wie wird es genutzt?

CustomGPT.ai ist eine leistungsstarke Lösung zur Erstellung maßgeschneiderter Sprachmodelle, die speziell auf die Anforderungen und Daten eines Unternehmens zugeschnitten sind. Im Rahmen unseres Projekts haben wir CustomGPT.ai in Kombination mit einem RAG-System genutzt, um die Effizienz im Umgang mit Serviceanfragen zu steigern. Das RAG-System stellt sicher, dass die generierten Antworten auf den aktuellen und relevanten Unternehmensdaten basieren. So wird gewährleistet, dass die Antwortvorschläge präzise und kontextbezogen sind.

Die zentrale Aufgabe von CustomGPT.ai in diesem Projekt war es, basierend auf den eingehenden E-Mails der Kunden automatisch einen Antwortvorschlag zu generieren. Durch die Implementierung dieses Systems konnte die Arbeitslast der Customer Service Representatives (CSRs) erheblich reduziert werden. Statt jede Antwort manuell zu formulieren, konnten sie nun auf präzise, KI-gestützte Vorschläge zurückgreifen.

Überblick über den Service Request Prozess

Der Service Request Prozess folgt einem strukturierten Ablauf, der durch verschiedene Phasen gekennzeichnet ist, die eine effiziente Bearbeitung von Anfragen sicherstellen.

Kategorisierung: Zu Beginn wird die Anfrage von den CSRs einer Kategorie zugeordnet. Häufige Kategorien sind "Reklamation", "Beratung" und "Support", wobei jede dieser Kategorien spezifische Unterkategorien hat, die detailliertere Anfragen abbilden.

Entscheidungstabelle zur Überprüfung der Qualifizierung zur Antwortgenerierung anhand der Kategorie: Nach der Kategorisierung wird eine Entscheidungstabelle verwendet, um zu überprüfen, ob eine Schnittstelle zur automatisierten Antwortgenerierung aufgerufen werden soll. Bei Kategorien wie "Beratung", die häufig wiederkehrende Anfragen enthalten, wird automatisch ein Antwortvorschlag generiert. Andere Kategorien wie "Reklamation" oder "Support" erfordern möglicherweise eine manuelle Bearbeitung. Auf Basis der eingehenden E-Mail wird mithilfe eines RAG-Systems ein Antwortvorschlag erstellt, der aus den relevanten und aktuellen Unternehmensdaten abgeleitet wird. Das System durchsucht dabei die Datenbank nach Informationen, die der Anfrage entsprechen, und generiert eine präzise und kontextuell passende Antwort, um eine schnelle und effiziente Bearbeitung zu ermöglichen.

Antwortvorschläge: Der Antwortvorschlag wird den CSRs in der Pega-Oberfläche angezeigt. Die CSRs haben dann die Möglichkeit, die Antwort zu versenden, den Vorschlag zu bearbeiten oder den Vorschlag abzulehnen.

Interaktionsverarbeitung: Wenn die Antwort versendet wird, können unterschiedliche Optionen für die Abschlusssteuerung gewählt werden. Eine Option besteht darin, den Service Request nach dem Versand der Antwort zu schließen, sodass der Prozess als vollständig markiert wird und die Anfrage weitergeleitet werden kann. Falls mehrere Anfragen in einer E-Mail bearbeitet werden müssen, ist es ebenfalls möglich, zusätzliche Service Requests zu erstellen.

Flexibilität bei der Bearbeitung: Wenn Service Manager die automatisch generierte Antwort anpassen möchten, steht ein Editor zur Verfügung, um die Antwort auf die spezifischen Bedürfnisse der Anfrage zu modifizieren. Sollte der Antwortvorschlag abgelehnt werden, muss der Service Manager einen Grund angeben und eine eigene Antwort verfassen. Dieser Ablauf gewährleistet eine effiziente Bearbeitung von Serviceanfragen, indem er sowohl Automatisierung als auch Flexibilität bietet, um auf die verschiedenen Anforderungen der Kunden einzugehen.

Technische Umsetzung der Integration

Um CustomGPT.ai nahtlos in den Kundenservice zu integrieren, wurde es über eine REST-API mit Pega verknüpft. In diesem Fall wurde Pega beim Kunden eingesetzt, um Serviceanfragen automatisiert zu verarbeiten und kontextbezogene Antwortvorschläge zu generieren.

Über eine Schnittstelle werden relevante Daten – wie Eingangsdatum, Betreff und E-Mail-Text – an CustomGPT.ai übermittelt. Die Antwort wird mithilfe von RAG erzeugt und direkt ins Pega-System zurückgespielt.

Die Integration wurde schrittweise umgesetzt, beginnend mit einer Überprüfung, ob für eine Anfrage bereits eine automatische Antwort vorliegt. Falls nicht, werden die relevanten Informationen an die KI übermittelt. Eine Entscheidungstabelle steuert, ob die Anfrage je nach Kategorie automatisiert beantwortet oder an einen Customer Service Representative (CSR) weitergeleitet wird.

Zur Stabilität und Fehlerbehandlung wurde eine Wiederholungslogik integriert: Falls ein API-Aufruf fehlschlägt, wird er automatisch über einen Queue-Prozessor erneut ausgeführt. In der Benutzeroberfläche erhalten CSRs eine transparente Statusanzeige sowie die Möglichkeit, Antwortvorschläge zu bearbeiten, abzulehnen oder direkt zu versenden.

Vorteile der Implementierung

Die Integration von CustomGPT.ai in den Service Request Prozess hat zahlreiche Vorteile gebracht:

  • Automatisierung und Effizienzsteigerung: Routineanfragen wurden automatisiert und CSRs mussten sich nicht mehr mit der Erstellung von Standardantworten befassen. Dies hat nicht nur Zeit gespart, sondern auch die Prozessgeschwindigkeit erheblich erhöht.
  • Fehlerreduktion und Präzision: Dank des maßgeschneiderten Modells von CustomGPT.ai wurden Fehler bei der Beantwortung von Anfragen minimiert, da die generierten Antworten stets auf den aktuellen und relevanten Unternehmensdaten basieren.
  • Verbesserte Kundenzufriedenheit: Die schnelleren und präziseren Antworten führten zu einer besseren Kundenerfahrung, da die Wartezeiten reduziert und die Kommunikation effizienter gestaltet wurde.
  • Skalierbarkeit: Die Lösung ist flexibel und skalierbar, sodass sie in der Zukunft problemlos anwachsende Anforderungen und neue Anfragekategorien angepasst werden kann.

 

usu_dss_website_header_woman_laptop_smile_1332193905

AI Services mit USU Digital Consulting

Entdecken Sie, wie unsere AI-Services Ihren Kundenservice und Ihre Softwareentwicklung smarter machen.

 

Fazit

Die erfolgreiche Integration einer auf die Anforderungen des Unternehmens zugeschnittenen KI in den Service Request Prozess der Autorengesellschaft zeigt, wie gezielte Automatisierung den Kundenservice effizienter und reaktionsschneller machen kann.

Durch die Kombination der generativen Fähigkeit der LLMs mit dem RAG-Ansatz kann sichergestellt werden, dass kontextbezogene Antworten immer unter Verwendung aktueller und relevanter Unternehmensdaten generiert werden. Dies führt zu präzisen, kontextbezogenen Antworten, die die Arbeit der CSRs erleichtern, die Effizienz steigern und gleichzeitig die Qualität der Kundenkommunikation verbessern.

Durch die Anbindung an Pega konnte die Lösung nahtlos in bestehende Prozesse integriert werden. Als Teil der Plattform ermöglicht sie die flexible Automatisierung wiederkehrender Aufgaben - ohne den Faktor Mensch aus dem Prozess zu entfernen. So können die Servicemitarbeitenden ihre Zeit effizienter auf komplexere und individuellere Anfragen konzentrieren, anstatt sich mit Standardanfragen aufzuhalten. Schnellere Reaktionszeiten, reduzierte manuelle Aufwände und eine bessere Skalierbarkeit sind nur einige der Vorteile. Besonders wichtig: Die Technologie bleibt anpassbar – sie wächst mit den Anforderungen des Unternehmens und kann kontinuierlich optimiert werden.

Die Autorengesellschaft hat mit diesem Ansatz nicht nur ihre internen Abläufe verbessert, sondern auch die Kundenzufriedenheit gesteigert. Ein gutes Beispiel dafür, wie smarte Digitalisierung den Alltag für alle Beteiligten erleichtern kann – und genau darauf kommt es an.

 

Artikel teilen:

Weitere interessante Artikel