Customer Service Low-Code Pega
#1 Smarte Textverarbeitung in Unternehmen mit Pega
Pega bietet verschiedene Möglichkeiten der Textverarbeitung. Dies kann vor allem im Kundenservice...
Kundenanfragen schneller und präziser beantworten – ohne hohe manuelle Aufwände? Eine Unternehmensspezifisch trainierte KI macht es möglich. Durch den Einsatz von Retrieval-Augmented Generation (RAG) entstehen kontextbezogene Antwortvorschläge. RAG kombiniert zwei Prinzipien: Die KI greift nicht nur auf ihr trainiertes Modell zurück, sondern ergänzt Antworten durch aktuelle und relevante Unternehmensdaten.
In diesem Artikel werden wir einen detaillierten Einblick in die Integration von CustomGPT.ai in den Service Request Prozess einer Autorengesellschaft geben, den wir als Implementierungspartner erfolgreich umgesetzt haben. Ziel war es, den gesamten Prozess der Bearbeitung von Serviceanfragen zu automatisieren, um nicht nur die Effizienz zu steigern, sondern auch die Zufriedenheit der Kunden zu verbessern.
Retrieval-Augmented Generation (RAG) stellt eine innovative Methode vor, die die Leistung von großen Sprachmodellen (Large Language Models, LLMs) optimiert. Dabei werden externe Wissensquellen außerhalb der herkömmlichen Trainingsdaten vor der Antwortgenerierung herangezogen. Diese Technik erweitert die Möglichkeiten von LLMs durch deren Anwendung auf spezialisierte Themen oder interne Daten einer Organisation, ohne dass ein erneutes Trainieren des Modells erforderlich ist. Mit RAG wird die Genauigkeit und Relevanz der Antworten verbessert, indem sichergestellt wird, dass die Informationen aus zuverlässigen Quellen stammen. Auf diese Weise sind Unternehmen in der Lage, ihre KI-Systeme auf kosteneffiziente Weise anzupassen und gleichzeitig die Qualität der generierten Antworten zu verbessern, ohne dabei auf kostspielige Trainingsverfahren angewiesen zu sein.
LLMs sind eine wichtige Technologie im Bereich der künstlichen Intelligenz. Allerdings weisen diese Modelle von Natur aus eine gewisse Unvorhersehbarkeit auf, weshalb ihre generierten Antworten oft als "halluziniert" bezeichnet werden. Das Modell erzeugt Antworten, die faktisch ungenau oder völlig erfunden sein können. Hinzu kommt, dass die Trainingsdaten der LLMs auf einem festen Stand des Wissens zu einem bestimmten Zeitpunkt basieren, was bedeutet, dass sie statisch bleiben und nicht die aktuellen Entwicklungen widerspiegeln.
Hier setzt RAG an und bietet einen Ansatz, einige dieser Herausforderungen anzugehen. Das RAG führt einen Retrievalprozess durch. Dabei wird die Eingabeaufforderung verwendet, um relevante Informationen aus der externen Wissensbasis zu extrahieren. Dabei wird die Eingabe in eine Vektordarstellung umgewandelt und mit der Vektordatenbank abgeglichen. Basierend auf dem Prompt werden kontextbezogene Informationen extrahiert. Im nächsten Schritt, dem Anreicherungsschritt, wird der Prompt mit dem relevanten Kontext angereichert. Im Generierungsschritt wird der angereicherte Prompt an den LLM übergeben, der seine generativen Fähigkeiten nutzt, um aus den bereitgestellten Informationen eine kontextbezogene Antwort zu erzeugen. Durch die Kombination von Retrieval, Anreicherung und Generierung stellt RAG sicher, dass die Antwort sowohl informativ als auch direkt auf die gestellte Anfrage zugeschnitten ist.
CustomGPT.ai ist eine leistungsstarke Lösung zur Erstellung maßgeschneiderter Sprachmodelle, die speziell auf die Anforderungen und Daten eines Unternehmens zugeschnitten sind. Im Rahmen unseres Projekts haben wir CustomGPT.ai in Kombination mit einem RAG-System genutzt, um die Effizienz im Umgang mit Serviceanfragen zu steigern. Das RAG-System stellt sicher, dass die generierten Antworten auf den aktuellen und relevanten Unternehmensdaten basieren. So wird gewährleistet, dass die Antwortvorschläge präzise und kontextbezogen sind.
Die zentrale Aufgabe von CustomGPT.ai in diesem Projekt war es, basierend auf den eingehenden E-Mails der Kunden automatisch einen Antwortvorschlag zu generieren. Durch die Implementierung dieses Systems konnte die Arbeitslast der Customer Service Representatives (CSRs) erheblich reduziert werden. Statt jede Antwort manuell zu formulieren, konnten sie nun auf präzise, KI-gestützte Vorschläge zurückgreifen.
Der Service Request Prozess folgt einem strukturierten Ablauf, der durch verschiedene Phasen gekennzeichnet ist, die eine effiziente Bearbeitung von Anfragen sicherstellen.
Kategorisierung: Zu Beginn wird die Anfrage von den CSRs einer Kategorie zugeordnet. Häufige Kategorien sind "Reklamation", "Beratung" und "Support", wobei jede dieser Kategorien spezifische Unterkategorien hat, die detailliertere Anfragen abbilden.
Entscheidungstabelle zur Überprüfung der Qualifizierung zur Antwortgenerierung anhand der Kategorie: Nach der Kategorisierung wird eine Entscheidungstabelle verwendet, um zu überprüfen, ob eine Schnittstelle zur automatisierten Antwortgenerierung aufgerufen werden soll. Bei Kategorien wie "Beratung", die häufig wiederkehrende Anfragen enthalten, wird automatisch ein Antwortvorschlag generiert. Andere Kategorien wie "Reklamation" oder "Support" erfordern möglicherweise eine manuelle Bearbeitung. Auf Basis der eingehenden E-Mail wird mithilfe eines RAG-Systems ein Antwortvorschlag erstellt, der aus den relevanten und aktuellen Unternehmensdaten abgeleitet wird. Das System durchsucht dabei die Datenbank nach Informationen, die der Anfrage entsprechen, und generiert eine präzise und kontextuell passende Antwort, um eine schnelle und effiziente Bearbeitung zu ermöglichen.
Antwortvorschläge: Der Antwortvorschlag wird den CSRs in der Pega-Oberfläche angezeigt. Die CSRs haben dann die Möglichkeit, die Antwort zu versenden, den Vorschlag zu bearbeiten oder den Vorschlag abzulehnen.
Interaktionsverarbeitung: Wenn die Antwort versendet wird, können unterschiedliche Optionen für die Abschlusssteuerung gewählt werden. Eine Option besteht darin, den Service Request nach dem Versand der Antwort zu schließen, sodass der Prozess als vollständig markiert wird und die Anfrage weitergeleitet werden kann. Falls mehrere Anfragen in einer E-Mail bearbeitet werden müssen, ist es ebenfalls möglich, zusätzliche Service Requests zu erstellen.
Flexibilität bei der Bearbeitung: Wenn Service Manager die automatisch generierte Antwort anpassen möchten, steht ein Editor zur Verfügung, um die Antwort auf die spezifischen Bedürfnisse der Anfrage zu modifizieren. Sollte der Antwortvorschlag abgelehnt werden, muss der Service Manager einen Grund angeben und eine eigene Antwort verfassen. Dieser Ablauf gewährleistet eine effiziente Bearbeitung von Serviceanfragen, indem er sowohl Automatisierung als auch Flexibilität bietet, um auf die verschiedenen Anforderungen der Kunden einzugehen.
Um CustomGPT.ai nahtlos in den Kundenservice zu integrieren, wurde es über eine REST-API mit Pega verknüpft. In diesem Fall wurde Pega beim Kunden eingesetzt, um Serviceanfragen automatisiert zu verarbeiten und kontextbezogene Antwortvorschläge zu generieren.
Über eine Schnittstelle werden relevante Daten – wie Eingangsdatum, Betreff und E-Mail-Text – an CustomGPT.ai übermittelt. Die Antwort wird mithilfe von RAG erzeugt und direkt ins Pega-System zurückgespielt.
Die Integration wurde schrittweise umgesetzt, beginnend mit einer Überprüfung, ob für eine Anfrage bereits eine automatische Antwort vorliegt. Falls nicht, werden die relevanten Informationen an die KI übermittelt. Eine Entscheidungstabelle steuert, ob die Anfrage je nach Kategorie automatisiert beantwortet oder an einen Customer Service Representative (CSR) weitergeleitet wird.
Zur Stabilität und Fehlerbehandlung wurde eine Wiederholungslogik integriert: Falls ein API-Aufruf fehlschlägt, wird er automatisch über einen Queue-Prozessor erneut ausgeführt. In der Benutzeroberfläche erhalten CSRs eine transparente Statusanzeige sowie die Möglichkeit, Antwortvorschläge zu bearbeiten, abzulehnen oder direkt zu versenden.
Die Integration von CustomGPT.ai in den Service Request Prozess hat zahlreiche Vorteile gebracht:
Die erfolgreiche Integration einer auf die Anforderungen des Unternehmens zugeschnittenen KI in den Service Request Prozess der Autorengesellschaft zeigt, wie gezielte Automatisierung den Kundenservice effizienter und reaktionsschneller machen kann.
Durch die Kombination der generativen Fähigkeit der LLMs mit dem RAG-Ansatz kann sichergestellt werden, dass kontextbezogene Antworten immer unter Verwendung aktueller und relevanter Unternehmensdaten generiert werden. Dies führt zu präzisen, kontextbezogenen Antworten, die die Arbeit der CSRs erleichtern, die Effizienz steigern und gleichzeitig die Qualität der Kundenkommunikation verbessern.
Durch die Anbindung an Pega konnte die Lösung nahtlos in bestehende Prozesse integriert werden. Als Teil der Plattform ermöglicht sie die flexible Automatisierung wiederkehrender Aufgaben - ohne den Faktor Mensch aus dem Prozess zu entfernen. So können die Servicemitarbeitenden ihre Zeit effizienter auf komplexere und individuellere Anfragen konzentrieren, anstatt sich mit Standardanfragen aufzuhalten. Schnellere Reaktionszeiten, reduzierte manuelle Aufwände und eine bessere Skalierbarkeit sind nur einige der Vorteile. Besonders wichtig: Die Technologie bleibt anpassbar – sie wächst mit den Anforderungen des Unternehmens und kann kontinuierlich optimiert werden.
Die Autorengesellschaft hat mit diesem Ansatz nicht nur ihre internen Abläufe verbessert, sondern auch die Kundenzufriedenheit gesteigert. Ein gutes Beispiel dafür, wie smarte Digitalisierung den Alltag für alle Beteiligten erleichtern kann – und genau darauf kommt es an.
Customer Service Low-Code Pega
Pega bietet verschiedene Möglichkeiten der Textverarbeitung. Dies kann vor allem im Kundenservice...
Kunden effizient und persönlich zu erreichen, ist heute wichtiger denn je. Ein Unternehmen, das...
Customer Service Low-Code Pega
Um den Inhalt einer E-Mail zu analysieren und ihm Kategorien zuweisen zu können, bietet Pega...