
Verbrennen Sie Ihre Bibliothek nicht
In diesem neuen erstaunlichen Zeitalter der generativen KI werden große Sprachmodelle (LLMs) wie ChatGPT und Gemini oft als eigenständige Lösungen für die Verwaltung riesiger Informationsmengen angesehen. Hier gilt es, ein weit verbreitetes Missverständnis auszuräumen: Egal wie ausgefeilt eine KI auch sein mag, sie kann die grundlegenden Systeme, die sie mit Informationen versorgen, nicht ersetzen.
Betrachten Sie diese Analogie…
Ähnlich wie die Einstellung eines Bibliothekars für eine Bibliothek oder eines Forschungsassistenten, der riesige Mengen von Inhalten durchsucht und auf das Wesentliche reduziert, kann ein LLM ein wirksames Instrument sein, um Inhalte zu prägnanten und umsetzbaren Antworten zusammenzufassen. Die Einstellung eines Bibliothekars oder Forschungsassistenten ersetzt jedoch nicht die Notwendigkeit einer gut ausgestatteten Bibliothek. Genauso sind die leistungsfähigsten Anwendungen von LLMs diejenigen, die durch einen robusten und gut gepflegten Suchindex unterstützt werden. Im Falle unserer Analogie ist dieser Suchindex Ihre Bibliothek, und Ihr LLM-Bibliothekar oder -Forschungsassistent kann ohne ihn nicht richtig arbeiten.
Die Grenzen der autonomen KI
LLMs haben aufgrund ihrer Fähigkeit, menschenähnliche Textantworten zu generieren, weltweit Aufmerksamkeit erregt, aber sie arbeiten innerhalb bestimmter Grenzen. Die größte Einschränkung, die sie derzeit haben und wahrscheinlich noch viele Jahre haben werden, ist, dass sie nicht kontinuierlich in Echtzeit trainiert werden können. Sie verlassen sich stark auf die Daten, mit denen sie zuletzt trainiert wurden. Ein LLM, das auf Daten bis zum Jahr 2020 trainiert wurde, würde zum Beispiel nichts von Ereignissen oder Entwicklungen wissen, die nach diesem Jahr stattfinden. Das ist wie ein Historiker, der keine neuen Forschungsergebnisse der letzten drei Jahre gelesen hat. Diese zeitliche Begrenzung macht eine kontinuierliche Aktualisierung aus einer externen, aktuellen Datenquelle erforderlich. Die Verwaltung dieser externen, aktuellen Datenquelle erfordert viele integrierte Elemente, wie in der folgenden Abbildung zu sehen ist.

Diese integrierten Komponenten bilden die Generative AI Orchestration Engine. Ähnlich der Rolle, die eine Daten-Engine als Rückgrat für integrierte Best-of-Breed-Anwendungen spielt, stellt die Gen AI Orchestration Engine dieses Rückgrat für eine umfassende Generative AI-Lösung dar. Jede Komponente spielt eine entscheidende Rolle bei der Maximierung des Wertes, der durch die Nutzung des LLM-Kerns entsteht.
Datenerfassung: Steckverbinder sind die unbesungenen Helden
Effektives Wissensmanagement und E-Commerce-Plattformen erfordern verschiedene Konnektoren zur Integration von Daten aus unterschiedlichen Quellen. So wie eine Bibliothek ihre Sammlung in Abteilungen unterteilt – Nachschlagewerke für schnelle Fakten, Zeitschriften für aktuelle Ereignisse und Archive für historische Daten – kann ein gut kuratierter Suchindex, der verschiedene Konnektoren verwendet, auf so viele Datenquellen zugreifen und diese organisieren, wie in einem Unternehmen vorhanden sind.
Auf diese Weise wird sichergestellt, dass das gesamte vom Unternehmen erstellte Wissen auf einmal genutzt werden kann, um die fundiertesten Entscheidungen zu treffen. Diese Konnektoren sind es, die verschiedene Daten mit den dazugehörigen Berechtigungen einbeziehen. Sie ermöglichen es der Suchmaschine, dem LLM sofortige, sicherheitsrelevante Informationen zur Verfügung zu stellen, so dass er wie ein gut informierter Assistent funktionieren kann, der genau weiß, wo alles gespeichert ist und wer darauf zugreifen darf.
Sicherheit und Genauigkeit: Die Leistungsfähigkeit eines hybriden Suchindex
Um die Fähigkeiten von LLMs in Anwendungen wie Wissensmanagement und E-Commerce wirklich nutzen zu können, ist eine robuste Suchmaschine entscheidend. Ein hybrider Suchindex zum Beispiel kombiniert die Präzision traditioneller lexikalischer Suchalgorithmen mit dem kontextuellen Verständnis von Vektoreinbettungen. Dadurch wird die Suchrelevanz erheblich verbessert, da die Absicht der Suchanfrage verstanden wird und nicht nur Schlüsselwörter abgeglichen werden.
Außerdem entsteht durch diese Kombination ein dynamischer Index, der nicht nur Textinhalte in der Tiefe versteht, sondern sich auch an neue Informationen anpasst, sobald diese verfügbar werden. Wenn Sie einem LLM Zugriff auf einen solchen Suchindex gewähren, um im Namen eines Benutzers zu suchen, wird sichergestellt, dass die aktuellsten Informationen mit dem Komfort und der Einfachheit von LLM-Antworten präsentiert werden.

Ein gut gepflegter Suchindex funktioniert wie eine sich ständig weiterentwickelnde Bibliothek, die dem LLM die neuesten und relevantesten Informationen zur Verfügung stellt. Dadurch wird sichergestellt, dass die Antworten, die sie generiert, korrekt und aktuell sind und nur Informationen enthalten, für die der Endbenutzer eine Genehmigung hat. So wie eine Bibliothek ständig neue Bücher erwerben muss, um relevant zu bleiben, muss eine Suchmaschine ihren Index kontinuierlich aktualisieren, um die genauesten und sichersten Informationen zu liefern.
LLM-Modelle: Sperren Sie sich nicht ein
Ende 2022 gab es in der Landschaft der großen Sprachmodelle (LLMs) nur eine Handvoll namhafter Akteure. Heute, Mitte 2024, hat sich die Szene mit Hunderten von Modellen dramatisch erweitert. Das Wachstum der LLMs ist nicht nur steil – es ist praktisch vertikal. Jedes neue Modell, das auf den Markt kommt, bringt deutliche Verbesserungen oder neue Funktionen mit sich und verändert die Landschaft gelegentlich dramatisch, wenn auch vielleicht nur vorübergehend, da die neueren Modelle ihre Vorgänger schnell überholen.
Trotz dieser rasanten Entwicklung gibt es kein einziges LLM, das über alle Anwendungen hinweg die Oberhand gewinnt. Die Variabilität der Modelle in Bezug auf Geschwindigkeit, Genauigkeit, Aktualität und Kosteneffizienz unterstreicht die Notwendigkeit einer maßgeschneiderten Auswahl auf der Grundlage spezifischer Anwendungsfälle. Ein Modell könnte beispielsweise auf Kosten der Geschwindigkeit gehen und für interne Anwendungen in Unternehmen optimal sein , bei denen Kostenüberlegungen im Vordergrund stehen. Bei einem anderen Modell könnte die Genauigkeit im Vordergrund stehen, so dass es sich ideal für den Kundenservice eignet. Und wieder ein anderes könnte für die Geschwindigkeit optimiert sein, die für E-Commerce-Anwendungen erforderlich ist.
Es ist wichtig zu verstehen, dass die beste LLM für die Indizierung und Abstraktion von Daten sich erheblich von derjenigen unterscheiden kann, die für die Bearbeitung direkter Benutzeranfragen am besten geeignet ist. An dieser Stelle kommt die Gen AI Orchestration Engine ins Spiel, die entwickelt wurde, um Ihre Auswahl an LLMs zukunftssicher zu machen. Indem Sie Ihre Systeme so konstruieren, dass sie anpassungsfähig und nicht auf ein bestimmtes LLM festgelegt sind, ermöglichen Sie Flexibilität, wenn sich die Fähigkeiten dieser Modelle weiterentwickeln. Dadurch wird sichergestellt, dass sich Ihre Lösungen mit ihnen weiterentwickeln können, um so effizient und wertvoll wie möglich zu sein.
Zugriffskontrolle: Sicherheit durch strukturierte Berechtigungen
Ein weiterer wichtiger Aspekt dieses integrierten Ansatzes ist die Sicherheit. Eine Suchmaschine mit robusten Konnektoren kann Daten aus einer Vielzahl von Quellen abrufen und Berechtigungen auf Dokumentenebene effektiv verwalten. Dadurch wird sichergestellt, dass die Informationen, die ein Benutzer bei der Interaktion mit einem LLM abruft, nicht nur relevant sind, sondern auch mit den für den Endbenutzer festgelegten Berechtigungen übereinstimmen. Im Wesentlichen kann der LLM nur auf Informationen zugreifen, für die der Benutzer eine Berechtigung hat, ähnlich wie ein Verwalter von Militärakten den Zugang zu bestimmten Materialien auf der Grundlage von Freigabestufen einschränken könnte.

Kostenkontrolle: Die versteckten Kosten von LLMs managen
Bei der Erörterung der Kosten von großen Sprachmodellen (LLMs) ist es wichtig zu wissen, dass Einzelanwender zwar kostenlos oder über ein bescheidenes Abonnement darauf zugreifen können, dass die kommerziellen Auswirkungen jedoch wesentlich gravierender sind. Die Kosten für kommerzielle LLMs können beträchtlich sein – oft das 10- bis 20-fache der Kosten für herkömmliche lexikalische oder semantische Suchwerkzeuge. Dies kann zu einer Verzehnfachung der Kosten im Zusammenhang mit dem elektronischen Handel, der internen Suche oder dem Kundensupport führen. Die Entscheidung, solche Ausgaben zu tätigen, sollte eine strategische Entscheidung sein und nicht nur ein Streben nach der neuesten Technologie.
Es gibt jedoch Strategien, um diese Kosten effektiv zu verwalten. Unternehmen könnten die Einführung eines Open-Source-LLM in Erwägung ziehen und dabei die Vorabinvestition in die Anpassung gegen die laufenden API-Kosten abwägen. Ein anderer Ansatz ist die Vorindexierung von Antworten auf häufig gestellte Fragen, so dass die Antworten ohne zusätzliche Kosten wiederverwendet werden können. Darüber hinaus kann das Abfrage-Routing die Ressourcenzuweisung optimieren, indem es die Komplexität einer Abfrage mit der am besten geeigneten Suchmethode abgleicht – einfache Anfragen benötigen vielleicht nur eine einfache lexikalische Suche, während die komplexesten oder wertvollsten Fragen die Fähigkeiten eines LLM erfordern könnten.
Diese Kostenmanagementtechniken sind für Organisationen, die LLMs in ihren Betrieb integrieren möchten, ohne ihre finanzielle Effizienz oder ihre strategischen Ziele zu gefährden, von entscheidender Bedeutung.
Eine synergetische Zukunft
Die Lucidworks-Plattform stellt die Zukunft des Informationsmanagements dar – sie vereint fortschrittliche Suchmaschinen mit umfangreichen Sprachmodellen durch die Gen AI Orchestration Engine. Indem sie sicherstellen, dass alle Komponenten harmonisch zusammenarbeiten, können Unternehmen KI nicht nur als Werkzeug zur Interaktion nutzen, sondern als Eckpfeiler einer umfassenden, sicheren und intelligenten Informationsmanagementstrategie.
Denken Sie daran, dass selbst der erfahrenste Bibliothekar eine gut ausgestattete, aktuelle Bibliothek benötigt, um den besten Service zu bieten. Verheizen Sie also nicht Ihre Bibliothek. Bewerten Sie stattdessen die aktuelle technologische Infrastruktur Ihrer Organisation und überlegen Sie, wie Sie durch die Verbesserung Ihrer Suchmaschinenfunktionen die Effektivität Ihrer KI-Tools nicht nur erhalten, sondern erheblich steigern können. Erneuern Sie Ihre Bibliothek, um im Wettbewerb die Nase vorn zu haben.