Warum Wissensmanagement eine konversationelle Suche braucht
Wir befassen uns mit den Grundlagen der konversationellen Suche, wie große Sprachmodelle wie ChatGPT und PaLM 2 mit der Suche zusammenhängen und wie sie ansprechende Sucherlebnisse für Mitarbeiter ermöglichen können.
Die Knowledge-Discovery-Branche hat im Laufe der Jahre große Fortschritte bei der Integration von natürlichsprachlichen Funktionen in die Suche gemacht. Auch wenn es immer Raum für Verbesserungen gibt, ist Lucidworks von den Fortschritten, die wir gemacht haben, begeistert. Wir stellen immer noch fest, dass die meisten Forscher und Wissensarbeiter Anfragen mit nur wenigen Wörtern eingeben und vielleicht nur raten, wie die Suchmaschine funktioniert, oder sie geben auf und gehen zum Browsen über.
Indem wir den Nutzern beibringen, mit Metadaten-Begriffen zu suchen (z.B. „Verkehrstote 2020“) anstatt mit natürlicher Sprache (wie viele tödliche Autounfälle gab es in den USA im Jahr 2020), fördern wir die Mehrdeutigkeit von Suchanfragen. Der Benutzer vergeudet Zeit und die Suchplattform verpasst einen expliziteren Ausdruck dessen , was der Benutzer zu erreichen versucht.
Ein weiterer Aspekt der heutigen Sucherfahrung ist, dass die Plattform auf implizite Signale angewiesen ist, um das allgemeine Ziel des Benutzers vorherzusagen. Bezieht sich diese Suche auf das gleiche Ziel wie die vorherige Suche? Sucht der Wissensarbeiter nach Dokumenten, die für ein Forschungsthema relevant sind, oder benötigt er eine Antwort auf eine Sachfrage mit zitierten Quellen? Es ist schwierig, den Übergang des Benutzers von einem Ziel zum anderen vorherzusagen.
Warum die konversationelle Suche hilft
Wir bei Lucidworks glauben, dass wir mit generativen Sprachmodellen den Fortschritt hin zu einer konversationellen Sucherfahrung beschleunigen können – einer Erfahrung, die Benutzer dazu ermutigt, ihre Ziele in natürlicher Sprache zu formulieren. Wir wollen die Suchplattform in die Lage versetzen, sich wie ein Assistent zu verhalten, der den Benutzer durch relevante Fragen und Vorschläge führt, anstatt sich darauf zu beschränken, Dinge auf der Grundlage der Angaben im Suchfeld zu finden und Ziele auf der Grundlage impliziter Signale zu erraten.
Ein Beispiel: Nehmen wir an, ich betreibe Marktforschung für eine mobile App für Mikromobilität. Ich benötige einige Daten zur Verkehrssicherheit, bin aber nicht sicher, ob ich vertrauenswürdige Quellen in diesem Bereich kenne. Ich wende mich an einen Kollegen, der Erfahrung in der Verkehrssicherheitsforschung hat, und schildere ihm mein Ziel.
„Ich betreibe Marktforschung für eine neue Mikromobilitäts-App zur Planung sicherer Routen. Können Sie mir Tipps zu Quellen für Verkehrssicherheitsdaten im Zusammenhang mit Mikromobilität geben?“
Mein Kollege wird mir wahrscheinlich Fragen zu den geografischen Regionen stellen, die von Interesse sind, zu bestimmten Arten von Mikromobilität usw. Am Ende haben wir ein kurzes Gespräch, aus dem ich eine Reihe von vertrauenswürdigen Quellen mitnehme und vielleicht einige Möglichkeiten, die Daten zu facettieren, die ich noch nicht in Betracht gezogen hatte.
Dieser Mensch-zu-Mensch-Ansatz ist zwar effektiv, aber nicht sehr skalierbar. Generative große Sprachmodelle werden es uns ermöglichen, die Online-Suche näher an den effizienten Austausch von Informationen heranzuführen, der bei einem Gespräch von Mensch zu Mensch entsteht.
Strategie für konversationelle Sucherlebnisse
Okay, lassen Sie uns darüber sprechen, wie wir dorthin kommen.
Wir beginnen mit der Betrachtung der Elemente eines guten Gesprächs. Es gibt Hunderte von Listen mit „den Elementen eines guten Gesprächs“ – hier sind vier, die ich für die Idee der Konversationssuche für relevant halte:
#1. Hören Sie aktiv zu. Aktives Zuhören bedeutet nicht nur, die Frage zu wiederholen. Es geht darum, klärende Fragen zu stellen und Vorschläge zu machen. Und es geht darum, sich den Kontext des Gesprächs zu merken, damit die andere Partei nicht die gleichen Informationen wiederholen muss.
#2. Achten Sie auf nonverbale Hinweise. Eine Suchplattform kann unsere Körpersprache nicht sehen, aber sie kann auf implizite Signale achten. Die konversationelle Suche bietet eine neue Quelle für explizite Signale, aber wir müssen immer noch auf implizite Signale achten.
#3. Bleiben Sie beim Thema. Fragen und Antworten sollten für das aktuelle Gespräch relevant sein. Dazu gehören auch Vorschläge und andere Arten der Personalisierung.
#4. Bauen Sie Vertrauen auf. Die Teilnehmer an einem Gespräch bauen Vertrauen auf, indem sie konsequent, wahrheitsgemäß und respektvoll sind und bereit, Fehler zuzugeben.
Unsere Strategie basiert auf der Idee, dass ein generatives Sprachmodell mit Anweisungen versehen und aufgefordert werden kann, eine Aufgabe auszuführen, die mit einem Aspekt der Gesprächssuche zusammenhängt, wobei die Elemente einer guten Konversation erhalten bleiben. Wir erstellen eine Reihe von Sprachmodell-gesteuerten Agenten, die bestimmte Aufgaben ausführen, wobei jeder von ihnen Zugriff auf einen gemeinsamen Speicher von Gesprächen und damit verbundenen impliziten Signalen hat. Wir haben eine ML-Plattform entwickelt, um Merkmale der Konversationssuche aufzuzeigen.
Unsere Strategie lässt sich folgendermaßen visualisieren:
Verstehen von Suchanfragen: Wir werden ein generatives Sprachmodell verwenden, um das Verständnis von Suchanfragen zu verbessern und so die Leistung der hybriden Suche zu steigern. Welche Spezifikationen sind in der Abfrage enthalten? Sollte die Abfrage umgeschrieben werden, um die Trefferquote oder das Relevanzranking zu verbessern? Wir werden auch ein generatives Sprachmodell verwenden, um das Training des von der hybriden Suche verwendeten semantischen Kodierungsmodells zu verbessern, indem wir zusätzliche synthetische Trainingsdaten erzeugen. Achten Sie auf nonverbale Andeutungen. Bleiben Sie beim Thema.
Hybride Suche: Das System verwendet eine hybride Suche (semantisch + lexikalisch), um ein ausreichend großes Netz auszuwerfen, so dass eine hohe Wahrscheinlichkeit besteht, dass die relevantesten Dokumente abgerufen werden. Die hybride Suche hängt vom semantischen Modell ab – einem kodierten Sprachmodell, das einen semantischen Vektorraum darstellt – um den Abruf und die anfängliche Relevanzeinstufung zu bewältigen. Die hybride Suche muss sich an eine etablierte Zugriffskontrolle auf Inhalte halten, die manchmal als Sicherheitsabgleich bezeichnet wird. Schaffen Sie Vertrauen. Bleiben Sie beim Thema.
Retrieval Augmented Generation: Ein generatives Sprachmodell ordnet die Ergebnisse der hybriden Suche neu und beschreibt sie in natürlicher Sprache. Hierbei handelt es sich um eine Implementierung von Retrieval Augmented Generation, bei der die Ausgabe des generativen Modells auf die Dokumente beschränkt ist, die bei der vorangegangenen hybriden Suche aufgerufen wurden. Manche bezeichnen dies als „Grounding“. RAG ist eine Schlüsselkomponente, um die Antworten des generativen Sprachmodells in der Realität zu verankern, und ermöglicht es uns, Referenzen zu zitieren. Schaffen Sie Vertrauen. Bleiben Sie beim Thema.
Reflexion: Das generative Sprachmodell denkt über seine Ausgabe aus dem vorherigen Schritt nach. Seine Aufgabe ist es, (durch Aufforderung an sich selbst!) festzustellen, ob es eine bessere Antwort geben kann. Dieser Schritt beinhaltet auch eine Gedächtnisfunktion, so dass es von früheren Überlegungen profitieren kann. Bauen Sie Vertrauen auf. Bleiben Sie beim Thema.
Konversations-Monitor: Wir verwenden ein generatives Sprachmodell, das außerhalb des Konversationskontexts arbeitet, um sowohl die Antworten des Benutzers als auch die anderer Modelle auf respektvolle Inhalte zu überwachen. Manche bezeichnen dies als „Anpassung“. Vertrauen aufbauen.
Beschreibungen: Wir verwenden zusätzliche Eingabeaufforderungen, um das generative Sprachmodell aufzufordern, die einzelnen Dokumente in der Ergebnisliste zu beschreiben. Was ist der relevanteste Teil dieses Dokuments angesichts der bisherigen Suchkonversation? Hören Sie aktiv zu.
Konversationelle Antworten: Die Idee ist, dass eine Implementierung der konversationellen Suche es dem Benutzer ermöglichen sollte, Fragen zu stellen und zusätzliche Anweisungen zu geben, um eine Konversation nach der ersten Anfrage fortzusetzen. Und die Suchplattform sollte auf diese Eingaben reagieren, indem sie klärende Fragen stellt, um das Verständnis für das Ziel des Benutzers zu verfeinern. Hören Sie aktiv zu. Bauen Sie Vertrauen auf.
Implizite Signale – Prompting: Nehmen wir an, dass der Benutzer bisher keine weitere Eingabeaufforderung eingegeben hat – er hat die explizite Konversation nicht fortgesetzt. Er hat jedoch mit dem System interagiert, indem er auf Ergebnisse geklickt hat, Ergebnisse gefiltert hat, gelesen hat, usw. Wir können diese impliziten Signale in eine Art Prompting hinter dem Vorhang unseres generativen Sprachmodells einbeziehen. Achten Sie auf nonverbale Hinweise.
RLHF-Befehlsabstimmung: RLHF ist Verstärkungslernen aus menschlichem Feedback. Die Idee ist, die Feinabstimmung der Anweisungen auf der Grundlage der expliziten Gespräche und der damit verbundenen impliziten Signale kontinuierlich zu aktualisieren. Hören Sie aktiv zu. Achten Sie auf nonverbale Anzeichen.
Ein Beispiel illustrieren
Werfen wir zunächst einen Blick darauf, was heute passieren kann, wenn ein Benutzer eine allgemeine Chat-Website, die von einem LLM betrieben wird, um die Beantwortung einer Forschungsfrage bittet – einer Frage des Sachverhalts.
Nehmen wir nun an, dass wir eine konversationelle Suchplattform verwendet haben, um eine Wissensmanagement-Anwendung speziell für ein Forschungsgebiet zu entwickeln. Diese Anwendung stützt sich auf eine Reihe von vertrauenswürdigen Ressourcen, um LLM-Antworten auf Fakten zu stützen.
Nächste Schritte
Bei Lucidworks denken wir bereits darüber nach, wie wir das Potenzial der konversationellen Suche für unser Produkt und unsere Kunden sinnvoll nutzen können. Wir werden mit mehreren Implementierungen beginnen, wie zum Beispiel:
- Extraktion von Suchbegriffen
- Hybride Suche und RAG
- Zusammenfassungen von Dokumenten
- Verbessertes Training von semantischen Modellen
- Benutzer können die Unterhaltung auswählen, die sie fortsetzen möchten.
Wir werden diese Funktionen im kommenden Juli als Beta-Version einführen. Erfahren Sie mehr über unsere Gedanken zur Beziehung zwischen LLMs wie ChatGPT und unserer Lucidworks-Plattform, oder werfen Sie einen Blick in unseren generativen KI-Leitfaden, um mehr über unseren Ansatz für diese Technologie zu erfahren. Wenn Sie mehr darüber erfahren möchten, wie Lucidworks-Lösungen die Suchstrategie Ihrer Marke unterstützen können, kontaktieren Sie uns noch heute.