Nutzung von Intent-Daten zur Optimierung des Self-Solve-Erlebnisses

Wie Red Hat absichtliche Daten nutzt, um die Arbeitsabläufe für Support-Mitarbeiter und Kontaktzentren zu automatisieren und effizienter zu gestalten.

Selbstbedienungsoptionen sind allgegenwärtiger denn je, vom Ausdrucken von Kinokarten über die Selbstabfertigung in Lebensmittelgeschäften bis hin zum Scannen eines QR-Codes in einem Café für eine kontaktlose digitale Speisekarte. Diese Betonung der Selbstbedienung ist angesichts der COVID-19-Pandemie noch wichtiger als je zuvor, da die Regierungen Vorschriften und Beschränkungen für Unternehmen und den Handel erlassen, um menschliche Berührungspunkte zu minimieren. Auch Kunden, die ein digitales Produkt oder eine digitale Dienstleistung in Anspruch nehmen, möchten nicht in einem Live-Chat oder einer Telefonwarteschlange warten, um Hilfe zu erhalten. Sie möchten Ihr Kundenportal besuchen und dort schnell die gewünschten Antworten finden.

Mit dem Übergang zur Telearbeit und der zunehmenden Zeit, die zu Hause verbracht wird, verzeichnen die Unternehmen einen starken Anstieg der Supportfälle. Gleichzeitig zwingt der Marktabschwung die Unternehmen dazu, die Kosten zu senken, wo immer sie können. Es wird geschätzt, dass Live-Support-Kanäle wie Telefon, Live-Chat und E-Mail etwa 8 Dollar pro Kontakt kosten. Vergleichen Sie dies mit Selbstbedienungskanälen wie Supportportalen und mobilen Apps, die nur 10 Cent pro Kontakt kosten.

Der Lucidworks-Kunde Red Hat präsentierte auf unserer jährlichen Activate Search & AI Konferenz, die dieses Jahr virtuell stattfand. Ihre Sitzung trug den Titel „Optimizing Customer Self-Solve Experience Using Intent at Red Hat“. Jaydeep Rane, Senior Data Scientist, und Manikandan Sivanesan, Principal Software Engineer, stellten vor, wie sie die Auffindbarkeit in ihrem Self-Solve-Kundensupport verbessert und neue Muster zur Verbesserung der Workflow-Effizienz eingeführt haben.

Kunden abonnieren Red Hat-Produkte mit unterschiedlichem Grad an betrieblicher Komplexität. Der Schlüssel zur Kundenerneuerung und -bindung liegt darin, den Kunden die richtigen Ressourcen zur Verfügung zu stellen, wie z. B. eine Wissensdatenbank, Tools und Unterstützung bei der Fehlerbehebung. Zu diesem Zweck setzt Red Hat eine Reihe von Selbsthilfeoptionen ein, die den Kunden helfen, Zeit zu sparen und die Frustration der Kunden zu verringern.

Suche ist entscheidend für Selbsthilfe

Da die Selbsthilfe eine Schlüsselkomponente ist, um den Wert eines Abonnements zu steigern, ist die Suche von entscheidender Bedeutung. Die Suche verbindet die Benutzer mit Wissensressourcen, Dokumentationen und den Bereitstellungstools, die sie zur Selbsthilfe über ihr Kundenportal benötigen. Wenn ein Kunde mit einem Ausfall oder einem Fehler konfrontiert wird, findet er im Idealfall schnell die Ursache oder den Fehler, geht zum Kundensupportportal und findet die Antwort, um das Problem selbst zu diagnostizieren und zu lösen.

Red Hat hat zwei Suchschnittstellen. Die eine ist die Site-Suche für das gesamte Kundenportal. Hier sind alle Ressourcen über eine einheitliche Suchoberfläche verfügbar. Die zweite Suchoberfläche ist die Schnittstelle zur Fehlerbehebung oder Solution Engine. In beiden Suchoberflächen ist die Option, sofort einen Support-Fall zu eröffnen, immer prominent, sichtbar und verfügbar, wenn der Kunde einen Support-Fall starten möchte.

Das Kundenportal ist ein Tor für Red Hat-Kunden, um entweder Lösungen für ein Problem zu finden, das sie mit einem Red Hat-Produkt haben – um es selbst zu lösen – oder um einen Supportfall mit einem Live-Agenten zu eröffnen. Die Wahrscheinlichkeit, dass Kunden ihre Probleme selbst lösen, ist größer, wenn sie die Solution Engine von Red Hat zur Fehlerbehebung besuchen. Kundenbefragungen haben ergeben, dass vier von fünf Kunden, die ihr Kundenportal besuchen, eher dazu motiviert sind, eine Selbstlösung auf der Solution Engine zu finden, als einen Support-Fall zu eröffnen.

Welches ist der richtige Schritt im Self-Solve-Prozess, um Empfehlungen von der Solution Engine einzuführen? Hier kommt das Modell der Absichtsklassifizierung ins Spiel.

Die zwei Arten von Suchanfragen

Das Team überprüfte die Suchprotokolle, um ihre eigene einzigartige Mischung von Anfragen von Nutzern aller Art zu untersuchen, in der Hoffnung, dass bestimmte Wörter oder Ausdrücke ihnen Hinweise auf die Motivation der Nutzer geben würden. Es kristallisierten sich zwei Arten von Absichten heraus:

  • Nutzungsanfragen, bei denen der Kunde wissen möchte, wie ein bestimmtes Red Hat-Produkt oder eine bestimmte Komponente zu verwenden ist; diese werden als Informationsanfragen betrachtet
  • Anfragen zur Fehlerbehebung, wenn der Kunde bei der Verwendung eines Produkts oder einer Komponente auf ein bestimmtes Problem oder einen erheblichen Fehler gestoßen ist

Beide Absichten können zur Erstellung eines Falles führen, aber durch die Feinabstimmung der Suche hoffte das Team, die Kunden zu einer selbständigen Lösung in der Solution Engine zu führen, anstatt einen Fall zu eröffnen.

Das Team entwickelte ein Modell für überwachtes Lernen, um latente Absichten für eine bessere Datenkennzeichnung und die Erstellung eines hochwertigen Datensatzes zu finden. Sie untersuchten Abfragen aus der ersten Jahreshälfte. Sie nutzten Domänenexporte und Listen von Schlüsselwörtern, um Abfragen manuell zu kennzeichnen. So weisen beispielsweise Wörter wie was, warum, wo, wie, installieren auf eine Nutzungsabfrage hin. Jedes Mal, wenn Sie also eine Abfrage mit diesen Wörtern sahen, wurde sie als Nutzung gekennzeichnet. Bei der Fehlersuche kommen Wörter wie fail, failure, error häufig in der Abfrage vor. Dieser von Hand beschriftete Datensatz wurde in ein aktives Lerntool eingespeist, mit dessen Hilfe mehrere tausend Datenpunkte beschriftet wurden, um ein schnelles Prototyping beim Aufbau des Modells zu ermöglichen.

Datenvorverarbeitung zum Herunterkochen von Daten

Die Vorverarbeitung der Daten diente auch dazu, Zeichenketten zu konvertieren und zu bereinigen, damit die Ausgabe für das Lernmodell wertvoller ist. Der Rohtext der Abfragen enthält sprachliche Komponenten, die die Leistung des Modells tatsächlich beeinträchtigen.

Nehmen Sie das Beispiel der Anfrage “ Hallo, bitte helfen Sie mir bei der OpenShift-Installation.

  • Im ersten Schritt werden alle Zeichen in Kleinbuchstaben umgewandelt, um die Einheitlichkeit aller Abfragen zu gewährleisten.
  • In Schritt zwei werden Interpunktion und Symbole entfernt
  • Im dritten Schritt werden traditionelle Stoppwörter mit Hilfe der beliebten NLTK-Stopwortliste entfernt
  • Im letzten Schritt werden bestimmte korpusspezifische Stoppwörter (wie der Firmenname) entfernt, die in diesem speziellen Datensatz häufig vorkommen und für das Modell nicht wirklich wichtig sind.

Mit den bereinigten Abfragen bestand der nächste Schritt zur Klassifizierung darin, diesen Text in einen numerischen Vektor zu konvertieren. Das Red Hat-Team entschied sich für den beliebten TD-IDF-Ansatz ( Term Frequency – Inverse Document Frequency ).

TF-IDF für die Arbeit nutzen

Dieser Ansatz durchlief Tausende von Abfragen in Sekundenschnelle, um zu berechnen, wie oft ein bestimmtes Wort in der Zeichenkette vorkommt, und dann Wörter, die in verschiedenen Zeichenketten häufiger vorkommen, herunterzustufen. Im Wesentlichen berechnet dieser Ansatz die Wichtigkeit jedes Wortes im gesamten Datensatz.

Aber wie genau werden diese Wörter in Zahlen umgewandelt? Das Team verwendete die TF-IDF-Vektorisierungstechnik – kurz für Term Frequency-Inverse Document Frequency.

Nehmen wir an, wir haben einen Datensatz, der aus zwei Zeichenketten besteht:

  1. Der erste String lautet: Meine Katze ist nicht wie mein Hund
  2. Der zweite String lautet: Mein Hund ist wie ein Elefant

Wir berechnen den Term Frequency Score und den inversen Document Frequency Score für das Wort in der ersten Zeichenfolge. Nachdem wir all diese schweren Aufgaben und die Datenbereinigung zur Identifizierung der Problemstellung erledigt haben, kommt es nun darauf an, welche Art von Modell wir mit unseren Daten durchlaufen lassen. Das Team entschied sich für den linearen Support-Vektor-Maschinen-Klassifikator, der Klassifizierungsalgorithmen verwendet, um Gruppen von Dingen in zwei diskrete Gruppen einzuteilen, in diesem Fall Nutzung und Fehlerbehebung.

Wenn Sie die Punkte mithilfe einer mathematischen Funktion von einem 2D-Raum in einen 3D-Raum projizieren, lässt sich die Hyperebene leichter zwischen den beiden Klassen unterscheiden. Dies wird der Kernel-Trick genannt.

Nach der Datenbereinigung und der Vektorisierung der Daten kommen also all diese Teile zusammen, um im Moment des Kundenbedarfs Wirkung zu zeigen.

Der Benutzer gibt im Kundenportal eine Suchanfrage ein: Ich kann OpenShift nicht installieren, was zu cannot install openshift bereinigt wird. Dann berechnet Vectorization, dass es sich um eine Absicht zur Fehlerbehebung handelt, und in den Suchergebnissen fordert das System den Benutzer auf, zum Tool zur Fehlerbehebung, der Solution Engine, zu gehen, um mit der Selbstbehebung fortzufahren.

Auf diese Weise nutzte Red Hat die Absichtsklassifizierung, um das Verhalten des Kunden zu beeinflussen und ihn zur Selbsthilfe zu ermutigen – und gleichzeitig immer die Möglichkeit zu bieten, einen Support-Fall zu eröffnen und mit einem Agenten zu sprechen.

Um die geschäftlichen Auswirkungen des Absichtsklassifizierers zu messen, führte das Team multivariate Tests durch und fand heraus:

  • Eine Reduzierung der Fallerstellung um 11,6 %, wenn die Kunden mit der Absichtsklassifizierung und den Empfehlungen konfrontiert wurden
  • Die Seitenaufrufe und die Zeit, die pro Besuch verbracht wurde, begannen zu sinken, was darauf hindeutet, dass die Benutzer aufgrund der durch den Intent Classifier ausgelösten Fehlerbehebung effizienter nach relevanten Inhalten suchen konnten.

Jeder Kunde von Red Hat kommt mit unterschiedlichen Motiven und Problemen zu seinem Kundenportal. Indem das Team von Red Hat die allgemeinen Absichten dieser Benutzer identifizierte, konnte es ein besseres Benutzererlebnis schaffen, das zu Selbstlösungen anregte, die Zahl der offenen Fälle verringerte und die Zahl der Verlängerungen und der Kundenbindung erhöhte.

Sehen Sie sich hier die Präsentation von Red Hat bei Activate 2020 an.

You Might Also Like

Vom Suchunternehmen zum praktischen KI-Pionier: Unsere Vision für 2025 und darüber hinaus

CEO Mike Sinoway gibt Einblicke in die Zukunft der KI und stellt...

Read More

Wenn KI schief geht: Fehlschläge in der realen Welt und wie man sie vermeidet

Lassen Sie nicht zu, dass Ihr KI-Chatbot einen 50.000 Dollar teuren Tahoe...

Read More

Lucidworks Kernpakete: Branchenoptimierte KI-Such- und Personalisierungslösungen

Entdecken Sie unsere umfassenden Core Packages, die Analytics Studio, Commerce Studio und...

Read More

Quick Links