Retrieval Augmented Generation (RAG)

Support Hero Banner

Was ist Retrieval Augmented Generation (RAG)?

Retrieval Augmented Generation (RAG) ist eine Technik zur Verarbeitung natürlicher Sprache (NLP), die die Stärken von abfragebasierten und generativen Modellen der künstlichen Intelligenz (KI) kombiniert. RAG KI kann genaue Ergebnisse liefern, die bereits vorhandenes Wissen optimal nutzen. Sie kann dieses Wissen aber auch verarbeiten und konsolidieren, um einzigartige, kontextbezogene Antworten, Anweisungen oder Erklärungen in menschenähnlicher Sprache zu erstellen, anstatt nur die abgefragten Daten zusammenzufassen. RAG KI erweitert das Potenzial von generativer KI. Die Technik vereint die Stärken von generativer KI und abfragebasierter KI. Sie unterscheidet sich von kognitiver KI, die zum Erzielen ihrer Ergebnisse die Arbeitsweise des menschlichen Gehirns nachahmt.

Wie funktioniert Retrieval Augmented Generation (RAG)?

RAG, kurz für Retrieval Augmented Generation, funktioniert durch die Integration abfragebasierter Techniken mit generativen KI-Modellen. Abfragebasierte Modelle leisten hervorragende Arbeit beim Extrahieren von Informationen aus bereits vorhandenen Online-Quellen wie Zeitungsartikeln, Datenbanken, Blogs und anderen Wissensspeichern wie Wikipedia oder sogar internen Datenbanken. Allerdings können solche Modelle keine individuellen oder außergewöhnlichen Antworten liefern. Generative Modelle hingegen können originelle Antworten generieren, die dem Kontext der gestellten Frage entsprechen. Ihre Genauigkeit kann jedoch Probleme bereiten. Um diese relativen Schwächen bestehender Modelle zu überwinden, wurde RAG entwickelt. Sie soll deren individuelle Stärken kombinieren und ihre Nachteile minimieren. In einem RAG-basierten KI-System wird ein Abfragemodell verwendet, um relevante Informationen aus vorhandenen Informationsquellen zu finden, während das generative Modell die abgefragten Informationen aufnimmt, alle Daten synthetisiert und sie in eine kohärente und kontextbezogene Antwort umformt.

Welche Vorteile bietet Retrieval Augmented Generation?

Durch die Integration von abfragebasierten und generativen künstlichen Intelligenzmodellen liefert RAG Antworten, die genauer, relevanter und origineller sind. Gleichzeitig klingen sie, als ob sie von Menschen stammten. Das liegt daran, dass RAG-Modelle den Kontext von Abfragen verstehen und natürliche und einzigartige Antworten generieren können, indem sie das Beste aus beiden Modellen kombinieren. Dadurch sind RAG-Modelle:

  • Genauer – Sie nutzen zunächst ein Abfragemodell, um relevante Informationen aus vorhandenen Wissensquellen zu identifizieren. Daher basieren die originellen, menschenähnlichen Antworten, die anschließend generiert werden, auf relevanteren und aktuelleren Informationen als bei einem rein generativen Modell.
  • Besser in der Lage, Informationen zu synthetisieren – Durch die Kombination von abfragebasierten und generativen Modellen kann RAG Informationen aus zahlreichen Quellen synthetisieren und auf menschenähnliche Weise neue Antworten generieren. Dies ist besonders bei komplexeren Abfragen hilfreich, die die Integration von Informationen aus mehreren Quellen erfordern.
  • In der Lage, Informationen in einen Kontext zu setzen – Im Gegensatz zu einfachen Abfragemodellen kann RAG Antworten generieren, die den Kontext einer Konversation berücksichtigen und daher relevanter sind.
  • Einfacher zu trainieren – Das Training eines NLP-basierten Large Language Model (LLM) zum Aufbau eines generativen KI-Modells erfordert eine enorme Datenmenge. Alternativ nutzen RAG-Modelle vorhandene und bereits abgerufene Wissensquellen, wodurch die Notwendigkeit reduziert wird, große Mengen an Trainingsdaten zu finden und aufzunehmen.
  • Effizienter – RAG-Modelle können effizienter sein als groß angelegte generative Modelle, da die anfängliche Abfragephase den Kontext und damit die Datenmenge einschränkt, die in der Generierungsphase verarbeitet werden muss.

Wie wird Retrieval Augmented Generation heute eingesetzt?

Die folgenden Beispiele zeigen, wie RAG-Modelle gegenwärtig eingesetzt werden:

  • Verbesserung des Kundensupports – Mit RAG können erweiterte Chatbots oder virtuelle Assistenten erstellt werden, die personalisiertere und genauere Antworten auf Kundenanfragen liefern. Dies kann schnellere Reaktionen, eine höhere betriebliche Effizienz und letztendlich eine verbesserte Kundenzufriedenheit mit dem Support ermöglichen.
  • Generieren von Inhalten – RAG kann Unternehmen bei der Erstellung von Blogbeiträgen, Artikeln, Produktkatalogen oder anderen Inhalten unterstützen, indem es seine generativen Fähigkeiten mit dem Abfragen von Informationen aus zuverlässigen externen und internen Quellen kombiniert.
  • Marktforschung – Durch das Sammeln von Erkenntnissen aus den riesigen Datenmengen, die im Internet verfügbar sind – wie aktuelle Nachrichten, Branchenforschungsberichte und sogar Social-Media-Beiträge – kann RAG Unternehmen über Markttrends auf dem Laufenden halten. Sie kann sogar die Aktivitäten der Wettbewerber analysieren und so Unternehmen dabei helfen, bessere Entscheidungen zu treffen.
  • Unterstützung des Vertriebs – RAG kann als virtueller Verkaufsassistent fungieren, der Kundenanfragen zu Artikeln im Lagerbestand beantwortet, Produktspezifikationen abfragt, Bedienungsanleitungen erklärt und generell den Einkaufslebenszyklus unterstützt. Durch die Verbindung ihrer generativen Fähigkeiten mit Produktkatalogen, Preisinformationen und anderen Daten – sogar Kundenbewertungen in sozialen Medien – kann RAG personalisierte Empfehlungen anbieten, auf Kundenwünsche eingehen und das Einkaufserlebnis verbessern.
  • Verbesserung der Mitarbeitererfahrung – RAG kann Mitarbeitern dabei helfen, ein zentrales Repository mit Expertenwissen zu erstellen und zu teilen. Durch die Integration mit internen Datenbanken und Dokumenten kann RAG Mitarbeitern genaue Antworten auf Fragen zu Unternehmensabläufen, Vorteilen, Prozessen, Kultur, Organisationsstruktur und mehr geben.

Cohesity und KI

Cohesity steht im beginnenden Zeitalter der KI an vorderster Front, da die Cohesity-Plattform „AI Ready“ RAG-basierte große Sprachmodelle (LLM) unterstützt. Der bahnbrechende Cohesity-Ansatz bietet robusten und domänenspezifischen Kontext für RAG-gesteuerte KI-Systeme. Er nutzt dazu das robuste Dateisystem der von Cohesity patentierten SnapTree- und SpanFS-Architekturen. Um dies zu erreichen, wird für die KI-Anwendung, die den Datenzugriff anfordert, zeitgerecht ein On-Demand-Index der Einbettungen bereitgestellt. Darüber hinaus werden die Daten durch die rollenbasierten Zugriffskontrollmodelle (RBAC) von Cohesity gesichert.

Die derzeit in der Entwicklung befindliche Cohesity RAG-Plattform akzeptiert sowohl menschliche als auch maschinelle Eingaben wie Fragen und Abfragen. Diese Eingaben werden dann mit Schlüsselwörtern tokenisiert, die Petabytes von Enterprise-Backup-Daten schnell auf eine kleinere Teilmenge kontextualisierter Daten herunterfiltern. Anschließend werden aus den verfügbaren Dokumenten oder Objekten die Darstellungen ausgewählt, die für die Frage oder Abfrage am relevantesten sind. Dieses Ergebnis wird zusammen mit der ursprünglichen Abfrage in ein LLM wie GPT4 gepackt, um eine kontextbezogene und menschlich klingende Antwort zu liefern. Dieser Ansatz ist innovativ und stellt sicher, dass die generierten Antworten nicht nur kompetent und aktuell, sondern auch vielfältig und relevant für den spezifischen Geschäftsinhalt sind.

Wenn die unternehmenseigenen Datensätze für das RAG-Modell genutzt werden können, müssen Cohesity-Kunden keine kostspielige Feinabstimmung oder ausgedehnte Trainings mithilfe riesiger Datenmengen durchführen, um LLMs beizubringen, „was sie sagen sollen“. Dies spart Zeit und Geld und reduziert zudem die Umweltbelastung, da RAG-Modelle flexibel genug sind, um sich an schnell wachsende und sich ständig ändernde Datensätze anzupassen. Aus diesem Grund kann die Nutzung von RAG auf der Cohesity-Plattform für jede Anfrage den aktuellsten und relevantesten Kontext liefern.

Die RAG-fähige Plattform von Cohesity generiert im Vergleich zu handelsüblichen LLMs fundiertere, vielfältigere und relevantere Antworten, ohne den Datenspeicherbedarf massiv zu erhöhen. Dieser Durchbruch bietet Unternehmen ein enormes Potenzial für weitere Innovationen im Bereich F&A (Fragen und Antworten)-Anwendungen ebenso wie bei den branchenspezifischen Such- und Entdeckungsmodellen.

Führungskräfte aus Technologie und Business werden die einmalige Gelegenheit haben, die Leistungsfähigkeit datengesteuerter Erkenntnisse zu nutzen, um die Qualität KI-gesteuerter Gespräche mit dem RAG-gesteuerten KI-System von Cohesity zu verbessern. Durch die Nutzung der leistungsfähigen Datenmanagement- und Sicherheitslösungen von Cohesity, die durch KI erweitert werden, können Unternehmen ein neues Maß an Effizienz, Innovation und Wachstum erreichen.

Weitere Informationen zu diesem Thema finden Sie in unserem E-Book zu KI.

X
Icon ionic ios-globe

Sie sehen gleich englische Inhalte. Möchten Sie fortfahren?

Zeigen Sie diese Warnung nicht mehr an

Icon ionic ios-globe

Sie sehen gleich englische Inhalte. Möchten Sie fortfahren?

Zeigen Sie diese Warnung nicht mehr an