Enterprise Suche mit LLM verbessern

Transkript:

Wenn Sie wissen möchten, wie Sie die Suche auf Ihrer Webseite mit Hilfe von Large Language Modellen verbessern können, dann schauen Sie sich diese kurze Demo an. Hier die Deutsche Post. Ich suche nach einem bestimmten Thema, nämlich wie frankiere ich einen Brief. Ich gehe mal hier über die Suche, gibt das hier ein, wie frankiere ich einen Brief? Und wie wir hier sehen, wird die Suche keyword-basierend ausgeführt.

Das ist bei ganz vielen Unternehmen so und viele Enterprise-Suchen funktionieren nach dem gleichen Prinzip der keyword-basierten Suche. Das bedeutet, dass er die einzelnen Wörter aus meiner Anfrage zerlegt und nach diesen einzelnen Wörtern in seiner Datenbank sucht. Das kann jetzt ein Lessig Search sein oder sonst ein Suchsystem. Und hier hat er die Wörter wie und wie frankiere ich gefunden. Also hat er angenommen, okay, das passt, das ist, wonach der Kunde oder der User sucht und gibt dieses Dokument wieder.

Es entspricht aber nicht meiner Intention. Ich möchte wissen, wie ich einen Brief rankieren kann und das hilft mir hier gar nicht. Wir haben mal ein Proof of Concept gemacht und sind dabei wie folgt vorgegangen. Wir haben einige relevante Seiten der Deutschen Post genommen, die öffentlich zugänglich sind auf der Webseite, haben diese Informationen zerlegt in Vektoren, die Vektoren in der Datenbank gespeichert und Wenn ich jetzt eine Suche eingebe über unser System oder in diesem POK, dann sucht er zuerst relevante Infos aus dieser Informationsdatenbank, die wir ihm gegeben haben von der Deutschen Post und verbindet dann die Dokumente, die er dann findet, mit einem Large Language Modell, Schlussfolgerungen zu ziehen, die Relevanz weiter einzuschränken und mir das Dokument oder die Informationen wiederzugeben, die tatsächlich meiner Intention sprechen. Wenn ich also die gleiche Frage jetzt hier in diesem System durchführe, schauen wir mal, was passiert.

Wie wir hier sehen, hat er sehr genau erkannt, was ich eigentlich will, nämlich einen Brief zu frankieren, und gibt mir die einzelnen Schritte aus, die notwendig sind, so einen Brief zu frankieren. Das heißt, es passt viel, viel, viel besser zu meinem Kontext die Antwort, als bei der rein Keyword-basierten Suche. Falls Ihnen die Demo gefallen hat und Sie Interesse daran haben, eine LLM-basierte Suche auch bei Ihnen im Unternehmen einzuführen, sprechen Sie uns gerne an. Wir zeigen Ihnen die Einsatzmöglichkeiten nicht nur im Suchkontext, sondern auch in anderen Prozessen innerhalb der Öffentlichkeit.

Teilen:

Relevante Artikel

KI in der Logistik: Revolutionierung der Branche

KI in der Logistik: Revolutionierung der Branche

Einleitung Die fortschrittliche Technologie der Künstlichen Intelligenz (KI) hat eine enorme Bedeutung für die Logistikbranche erlangt. Ein dynamisches und komplexes Umfeld wie die Logistik kann

Wie Generative AI die Effizienz in der Versicherungsbranche steigert

Wie Generative AI die Effizienz in der Versicherungsbranche steigert

Der Einzug der Generative AI im Versicherungswesen markiert einen signifikanten Wendepunkt in der Art und Weise, wie Versicherungen Geschäftsprozesse abwickeln, Risiken bewerten und Kundeninteraktionen gestalten.

Advanced AI applications for the insurance domain

Advanced AI applications for the insurance domain

Has an automobile accident ever happened to you? You are probably aware of the difficulties associated with filing an auto insurance claim if you have