Warum Conversational Search der nächste Schritt im E-Commerce ist

Wir sehen uns an, was die konversationelle Suche ist, wie sie mit großen Sprachmodellen wie ChatGPT und PaLM 2 zusammenhängt und wie die Technologie ansprechende Sucherlebnisse bieten kann.

Die Produkt- und Knowledge-Discovery-Branche hat im Laufe der Jahre große Fortschritte bei der Integration von natürlichsprachlichen Funktionen in die Suche gemacht. Auch wenn es immer Raum für Verbesserungen gibt, ist Lucidworks von den Fortschritten, die wir gemacht haben, begeistert. Wir stellen immer noch fest, dass die meisten E-Commerce-Nutzer Suchanfragen mit drei oder weniger Wörtern eingeben und vielleicht nur raten, wie die Suchmaschine funktioniert, oder sie geben auf und gehen zur Suche über.

Indem wir den Benutzern beibringen, mit Metadaten-Begriffen zu suchen (z.B. „Damen-Turnschuhe weiß“) anstatt mit natürlicher Sprache (weiße Damen-Turnschuhe, geeignet für das Büro), fördern wir die Mehrdeutigkeit von Suchanfragen. Der Benutzer vergeudet Zeit und die Suchplattform verpasst einen expliziteren Ausdruck dessen , was der Benutzer zu erreichen versucht.

Ein weiterer Aspekt der heutigen Sucherfahrung ist, dass die Plattform auf implizite Signale angewiesen ist, um das allgemeine Ziel des Benutzers vorherzusagen. Bezieht sich diese Suche auf das gleiche Ziel wie die vorherige Suche? Ist der Benutzer im Recherchemodus oder bereit zum Kauf? Es ist schwierig, den Übergang des Nutzers von einem Ziel (neue Kleidung für das Büro) zu einem anderen (ein Geschenk für meine Mutter) vorherzusagen.

Konversationssuche eingeben

Wir bei Lucidworks glauben, dass wir mit generativen Sprachmodellen den Fortschritt hin zu einer konversationellen Sucherfahrung beschleunigen können – einer Erfahrung, die Benutzer dazu ermutigt, ihre Ziele in natürlicher Sprache zu formulieren. Wir wollen die Suchplattform in die Lage versetzen, sich wie ein Assistent zu verhalten, der den Benutzer durch relevante Fragen und Vorschläge führt, anstatt sich darauf zu beschränken, Dinge auf der Grundlage der Angaben im Suchfeld zu finden und Ziele auf der Grundlage impliziter Signale zu erraten.

Ein Beispiel: Nehmen wir an, ich möchte die dünnen Regalböden eines Garagenregals, das ich vor zehn Jahren gekauft habe, ersetzen, weil sie durchhängen. Wenn ich in einen Baumarkt gehe und einen sachkundigen Mitarbeiter treffe, neige ich dazu, ein Gespräch zu beginnen, indem ich meine Aufgabe beschreibe.

„Welche Art von Sperrholz soll ich verwenden, um die durchhängenden Regale in meinem Garagenregal zu ersetzen?“ Der Angestellte wird mir wahrscheinlich Fragen zu den Abmessungen der Regale stellen, was ich auf den Regalen lagern will, ob die Garage feucht ist, usw. Am Ende haben wir ein kurzes Gespräch und ich verlasse das Geschäft mit wahrscheinlich mehr Artikeln als einer Sperrholzplatte.

Wenn ich mich stattdessen für einen Online-Einkauf entschieden hätte, würde ich zunächst überlegen, wie ich mit der Website interagiere. Mal sehen, ich weiß nicht, welche Art von Sperrholz ich brauche – ich beginne mit dem Stöbern. Hoffentlich finde ich gute Beschreibungen der Produktverwendung oder hilfreiche Bewertungen von anderen Käufern, die ein ähnliches Projekt in Angriff genommen haben.

Dieser Mensch-zu-Mensch-Ansatz ist zwar effektiv, aber nicht sehr skalierbar. Generative große Sprachmodelle werden es uns ermöglichen, die Online-Suche näher an den effizienten Austausch von Informationen heranzuführen, der bei einem Gespräch von Mensch zu Mensch entsteht.

Strategie für konversationelle Sucherlebnisse

Okay, lassen Sie uns darüber sprechen, wie wir dorthin kommen.

Wir beginnen mit der Betrachtung der Elemente eines guten Gesprächs. Es gibt Hunderte von Listen mit „den Elementen eines guten Gesprächs“ – hier sind vier, die ich für die Idee der Konversationssuche für relevant halte:

#1. Hören Sie aktiv zu. Aktives Zuhören bedeutet nicht nur, die Frage zu wiederholen. Es geht darum, klärende Fragen zu stellen und Vorschläge zu machen. Und es geht darum, sich den Kontext des Gesprächs zu merken, damit die andere Partei nicht die gleichen Informationen wiederholen muss.

#2. Achten Sie auf nonverbale Hinweise. Eine Suchplattform kann unsere Körpersprache nicht sehen, aber sie kann auf implizite Signale achten. Die konversationelle Suche bietet eine neue Quelle für explizite Signale, aber wir müssen immer noch auf implizite Signale achten.

#3. Bleiben Sie beim Thema. Fragen und Antworten sollten für das aktuelle Gespräch relevant sein. Dazu gehören Empfehlungen und andere Arten der Personalisierung.

#4. Bauen Sie Vertrauen auf. Die Teilnehmer an einem Gespräch bauen Vertrauen auf, indem sie konsequent, wahrheitsgemäß und respektvoll sind und bereit, Fehler zuzugeben.

Unsere Strategie basiert auf der Idee, dass ein generatives Sprachmodell mit Anweisungen versehen und aufgefordert werden kann, eine Aufgabe auszuführen, die mit einem Aspekt der Gesprächssuche zusammenhängt, wobei die Elemente einer guten Konversation erhalten bleiben. Wir erstellen eine Reihe von Sprachmodell-gesteuerten Agenten, die bestimmte Aufgaben ausführen, wobei jeder von ihnen Zugriff auf einen gemeinsamen Speicher von Gesprächen und damit verbundenen impliziten Signalen hat. Wir haben eine ML-Plattform entwickelt, um Merkmale der Konversationssuche aufzuzeigen.

Unsere Strategie lässt sich folgendermaßen visualisieren:

 

Verstehen von Suchanfragen: Wir werden ein generatives Sprachmodell verwenden, um das Verständnis von Suchanfragen zu verbessern und so die Leistung der hybriden Suche zu steigern. Welche Spezifikationen sind in der Abfrage enthalten? Sollte die Abfrage umgeschrieben werden, um die Trefferquote oder das Relevanzranking zu verbessern? Wir werden auch ein generatives Sprachmodell verwenden, um das Training des von der hybriden Suche verwendeten semantischen Kodierungsmodells zu verbessern, indem wir zusätzliche synthetische Trainingsdaten erzeugen. Achten Sie auf nonverbale Andeutungen. Bleiben Sie beim Thema.

Hybride Suche: Das System verwendet eine hybride Suche (semantisch + lexikalisch), um ein ausreichend großes Netz auszuwerfen, so dass eine hohe Wahrscheinlichkeit besteht, dass die relevantesten Dokumente (ich verwende „Dokument“ für die Beschreibung einer Sache – ein Produkt, eine Forschungsarbeit, eine FAQ des Kundendienstes) abgerufen werden. Die hybride Suche hängt vom semantischen Modell ab – einem kodierten Sprachmodell, das einen semantischen Vektorraum darstellt -, um den Abruf und das anfängliche Relevanz-Ranking zu bewältigen. Die hybride Suche muss sich an die etablierte Zugriffskontrolle auf Inhalte halten, die manchmal auch als Sicherheitstrimm bezeichnet wird. Schaffen Sie Vertrauen. Bleiben Sie beim Thema.

Retrieval Augmented Generation: Ein generatives Sprachmodell ordnet die Ergebnisse der hybriden Suche neu und beschreibt sie in natürlicher Sprache. Hierbei handelt es sich um eine Implementierung von Retrieval Augmented Generation, bei der die Ausgabe des generativen Modells auf die Dokumente beschränkt ist, die bei der vorangegangenen hybriden Suche aufgerufen wurden. Manche bezeichnen dies als „Grounding“. RAG ist in der Tat eine Schlüsselkomponente für das Grounding generativer Sprachmodellantworten und ermöglicht es uns, Referenzen zu zitieren. Schaffen Sie Vertrauen. Bleiben Sie beim Thema.

Reflexion: Das generative Sprachmodell denkt über seine Ausgabe aus dem vorherigen Schritt nach. Seine Aufgabe ist es, (durch Aufforderung an sich selbst!) festzustellen, ob es eine bessere Antwort geben kann. Dieser Schritt beinhaltet auch eine Gedächtnisfunktion, so dass es von früheren Überlegungen profitieren kann. Schaffen Sie Vertrauen. Bleiben Sie beim Thema.

Konversations-Monitor: Wir verwenden ein generatives Sprachmodell, das außerhalb des Konversationskontexts arbeitet, um sowohl die Antworten des Benutzers als auch die anderer Modelle auf respektvolle Inhalte zu überwachen. Manche bezeichnen dies als „Anpassung“. Vertrauen aufbauen.

Beschreibungen: Wir verwenden zusätzliche Eingabeaufforderungen, um das generative Sprachmodell aufzufordern, die einzelnen Dokumente in der Ergebnisliste zu beschreiben. Was ist der relevanteste Teil dieses Dokuments angesichts der bisherigen Suchkonversation? Was sind die einzigartigen Merkmale dieses Produkts, wenn man das bisherige Gespräch betrachtet? Hören Sie aktiv zu.

Konversationelle Antworten: Die Idee ist, dass eine Implementierung der konversationellen Suche es dem Benutzer ermöglichen sollte, Fragen zu stellen und zusätzliche Anweisungen zu geben, um eine Konversation nach der ersten Anfrage fortzusetzen. Und die Suchplattform sollte auf diese Eingaben reagieren, indem sie klärende Fragen stellt, um das Verständnis für das Ziel des Benutzers zu verfeinern. Hören Sie aktiv zu. Bauen Sie Vertrauen auf.

Implizite Signale – Prompting: Nehmen wir an, dass der Benutzer bisher keine weitere Eingabeaufforderung eingegeben hat – er hat die explizite Konversation nicht fortgesetzt. Er hat jedoch mit dem System interagiert, indem er auf Ergebnisse geklickt hat, Ergebnisse gefiltert hat, usw. Wir können diese impliziten Signale in eine Art Prompting hinter dem Vorhang unseres generativen Sprachmodells einbeziehen. Achten Sie auf nonverbale Hinweise.

RLHF-Befehlsabstimmung: RLHF ist Verstärkungslernen aus menschlichem Feedback. Die Idee ist, die Feinabstimmung der Anweisungen auf der Grundlage der expliziten Gespräche und der damit verbundenen impliziten Signale kontinuierlich zu aktualisieren. Hören Sie aktiv zu. Achten Sie auf nonverbale Andeutungen.

Eine Illustration

Werfen wir zunächst einen Blick darauf, was heute passieren kann, wenn ein Benutzer eine allgemeine Chat-Website, die von einem LLM betrieben wird, um Produktempfehlungen bittet.

Nehmen wir nun an, dass wir eine Conversational Search-Plattform verwendet haben, um eine E-Commerce-Anwendung speziell für den Produktkatalog eines Einzelhändlers zu entwickeln. Diese Anwendung stützt sich auf mehrere Datenquellen des Händlers, darunter der Produktkatalog, Ratgeberartikel usw.

Nächste Schritte

Bei Lucidworks denken wir bereits darüber nach, wie wir das Potenzial der konversationellen Suche für unser Produkt und unsere Kunden sinnvoll nutzen können. Wir werden mit mehreren Implementierungen beginnen, wie zum Beispiel:

  • Extraktion von Suchbegriffen
  • Hybride Suche und RAG
  • Zusammenfassungen von Dokumenten
  • Verbessertes Training von semantischen Modellen
  • Benutzer können die Unterhaltung auswählen, die sie fortsetzen möchten.

Wir werden diese Funktionen im kommenden Juni als Beta-Version einführen. Erfahren Sie mehr über unsere Gedanken zur Beziehung zwischen LLMs wie ChatGPT und unserer Lucidworks-Plattform, oder werfen Sie einen Blick in unseren generativen KI-Leitfaden, um mehr über unseren Ansatz für diese Technologie zu erfahren. Wenn Sie mehr darüber erfahren möchten, wie Lucidworks-Lösungen die Suchstrategie Ihrer Marke unterstützen können, kontaktieren Sie uns noch heute.

You Might Also Like

KI-Agenten dominieren den Einkauf. Ist Ihre Website auf die KI-gestützte Suche vorbereitet?

Generative KI-Agenten wie ChatGPT definieren die Produktsuche neu. Erfahren Sie, wie Sie...

Read More

Vom Suchunternehmen zum praktischen KI-Pionier: Unsere Vision für 2025 und darüber hinaus

CEO Mike Sinoway gibt Einblicke in die Zukunft der KI und stellt...

Read More

Wenn KI schief geht: Fehlschläge in der realen Welt und wie man sie vermeidet

Lassen Sie nicht zu, dass Ihr KI-Chatbot einen 50.000 Dollar teuren Tahoe...

Read More

Quick Links