La génération augmentée de récupération (RAG)

prise en charge du Hero Banner

Qu’est-ce que le modèle RAG (génération augmentée de récupération) ?

Le modèle RAG (retrieval augmented generation, génération augmentée de récupération) est une technique de traitement du langage naturel (NLP) qui combine les forces des modèles d’intelligence artificielle (IA) basés sur l’extraction et sur la génération. L’IA RAG peut fournir des résultats précis qui tirent le meilleur parti des connaissances préexistantes. Elle peut également traiter et consolider ces connaissances pour créer des réponses, des instructions ou des explications uniques, adaptées au contexte et rédigées dans un langage proche de celui des humains, au lieu de se contenter de résumer les données extraites. L’IA RAG est différente de l’IA générative en ce sens qu’elle est un sur-ensemble de l’IA générative. Le modèle RAG combine les forces de l’IA générative et de l’IA d’extraction. Il est également différent de l’IA cognitive, qui imite le fonctionnement du cerveau humain pour obtenir ses résultats.

Comment fonctionne la génération augmentée de récupération (RAG) ?

RAG est l’abréviation de « Retrieval Augmented Generation ». Ce modèle fonctionne en intégrant des techniques basées sur l’extraction avec des modèles d’IA générative. Les modèles basés sur l’extraction excellent dans l’extraction d’informations à partir de sources en ligne préexistantes, notamment des articles de journaux, des bases de données, des blogs et d’autres référentiels de connaissances tels que Wikipédia ou même des bases de données internes. Ces modèles ne peuvent cependant pas produire de réponses originales ou uniques. Les modèles génératifs peuvent quant à eux générer des réponses originales et adaptées au contexte de la question posée, mais ils peuvent avoir du mal à être très précis. Le modèle RAG a été développé pour combiner les forces respectives des modèles existants et minimiser leurs inconvénients afin de pallier ces faiblesses relatives. Dans un système d’IA RAG, le modèle d’extraction permet de trouver des informations pertinentes dans les sources d’information existantes, tandis que le modèle génératif prend les informations extraites, synthétise toutes les données et les transforme en une réponse cohérente et adaptée au contexte.

Quels sont les avantages de la génération augmentée de récupération ?

Le modèle RAG intègre les modèles d’IA d’extraction et d’IA générative pour fournir des réponses plus précises, plus pertinentes et plus originales, tout en donnant l’impression qu’elles sont fournies par des êtres humains. En effet, les modèles RAG peuvent comprendre le contexte des requêtes et générer des réponses nouvelles et uniques en combinant le meilleur des deux modèles. Ce faisant, les modèles RAG sont :

  • Plus précis – Un modèle d’extraction est d’abord utilisé pour identifier les informations pertinentes à partir des sources de connaissances existantes. Les réponses originales de type humain qui sont ensuite générées sont donc basées sur des informations plus pertinentes et plus récentes qu’un modèle purement génératif.
  • Plus aptes à synthétiser l’information – En combinant les modèles d’extraction et génératifs, le modèle RAG peut synthétiser des informations provenant de nombreuses sources et générer de nouvelles réponses de type humain. Ceci est particulièrement utile pour les requêtes plus complexes qui nécessitent l’intégration d’informations provenant de sources multiples.
  • Capables de replacer l’information dans son contexte – Contrairement aux modèles d’extraction simples, le modèle RAG peut générer des réponses qui tiennent compte du contexte d’une conversation, et qui sont donc plus pertinentes.
  • Plus facile à former – Former un grand modèle de langage (LLM, large language model) basé sur le NLP pour créer un modèle d’IA générative nécessite un énorme volume de données. Les modèles RAG utilisent par ailleurs des sources de connaissances préexistantes et récupérées à l’avance. Il n’est donc pas nécessaire de trouver et d’ingérer des quantités massives de données de formation.
  • Plus efficaces – Les modèles RAG sont généralement plus efficaces que les modèles génératifs à grande échelle, car la phase d’extraction initiale réduit le contexte et donc le volume de données à traiter lors de la phase de génération.

Comment la génération augmentée de récupération est-elle utilisée aujourd’hui ?

Voici quelques cas d’usage concrets des modèles RAG :

  • Améliorer l’assistance à la clientèle – Le modèle RAG peut servir à créer des chatbots ou des assistants virtuels avancés qui répondent de manière plus personnalisée et plus précise aux demandes des clients. Cela peut permettre de répondre plus rapidement, de gagner en efficacité opérationnelle et, en fin de compte, de rendre les clients plus satisfaits de leur expérience d’assistance.
  • Générer du contenu – Le modèle RAG peut permettre aux entreprises de produire des articles de blogs, des articles, des catalogues produits ou d’autres contenus en combinant ses capacités génératives et d’extraction d’informations à partir de sources fiables, externes et internes.
  • Réaliser des études de marché – Le modèle RAG, qui collecte des informations à partir des vastes volumes de données disponibles sur Internet (notamment les dernières nouvelles, les rapports d’études sectorielles et les publications sur les réseaux sociaux), permet aux entreprises de se tenir au courant des tendances du marché, d’analyser les activités de leurs concurrents, et ainsi de prendre des décisions plus éclairées.
  • Assister les ventes – Le modèle RAG peut servir d’assistant commercial virtuel, c’est-à-dire répondre aux questions des clients sur les articles en stock, extraire des spécifications produits, expliquer des modes d’emploi et, plus généralement, participer au cycle d’achat. Le modèle RAG peut combiner ses capacités génératives avec des catalogues produits, des informations sur les prix et d’autres données (par exemple les évaluations des clients sur les réseaux sociaux), pour faire des recommandations personnalisées, répondre aux préoccupations des clients et améliorer l’expérience d’achat.
  • Améliorer l’expérience des employés – Le modèle RAG peut permettre aux employés de créer et de partager un référentiel centralisé de connaissances spécialisées. Le modèle RAG s’intègre aux bases de données et aux documents internes, et fournit aux employés des réponses précises aux questions qu’ils se posent sur les activités de l’entreprise, les avantages, les processus, la culture, la structure organisationnelle etc.

Cohesity et l’IA

Cohesity est à l’avant-garde de la nouvelle ère de l’IA, car la plateforme Cohesity est « AI Ready » (adaptée à l’IA) pour les LLM basés sur le modèle RAG. L’approche révolutionnaire de Cohesity s’appuie sur le système de fichiers robuste de ses architectures brevetées SnapTree et SpanFS pour fournir aux systèmes d’IA pilotés par le modèle RAG un contexte fiable et spécifique au domaine. Pour ce faire, un index des intégrations à la demande sera fourni juste à temps à l’application d’IA qui demande les données. Les données seront en outre sécurisées par les modèles de contrôle d’accès basés sur les rôles (RBAC) de Cohesity.

La plateforme RAG de Cohesity qui est actuellement en cours de développement accepte les données saisies par l’homme ou par la machine, notamment les questions et les requêtes. Ces données sont ensuite marquées par jetons avec des mots-clés qui filtrent rapidement des pétaoctets de données de sauvegarde d’entreprise pour les réduire à un sous-ensemble de données contextualisées. Le système sélectionne ensuite, dans ces documents ou objets, les représentations les plus pertinentes par rapport à la question ou à la requête. Ce résultat est transmis, avec la requête originale, à un LLM tel que GPT4 afin de fournir une réponse contextuelle et à consonance humaine. Cette approche innovante garantit que les réponses générées sont non seulement fiables et à jour, mais aussi diversifiées et pertinentes par rapport au contenu spécifique de l’entreprise.

En superposant le modèle RAG aux jeux de données de leur entreprise, les clients de Cohesity n’auront pas besoin de procéder à des ajustements coûteux ou de dispenser une formation prolongée sur de vastes volumes de données pour apprendre aux LLM « ce qu’il faut dire ». Cela permet d’économiser du temps et de l’argent, mais aussi de réduire l’impact sur l’environnement, car les modèles RAG sont suffisamment flexibles pour s’adapter à des jeux de données qui augmentent rapidement et changent constamment. Utiliser le modèle RAG sur la plateforme Cohesity permet donc de fournir le contexte le plus récent et le plus pertinent à n’importe quelle requête.

La plateforme RAG de Cohesity générera des réponses plus fiables, plus diversifiées et plus pertinentes que les LLM standard, sans augmenter les besoins en stockage de données. Cette avancée peut ouvrir la voie à de nombreuses innovations avec les applications de Q&R (questions et réponses) d’entreprise et les modèles de recherche et de découverte de l’industrie.

Grâce au système d’IA RAG de Cohesity, les responsables technologiques et les dirigeants d’entreprise auront une occasion unique d’exploiter la puissance des informations alimentées par les données pour améliorer la qualité des conversations pilotées par l’IA. Les entreprises peuvent atteindre de nouveaux niveaux d’efficacité, d’innovation et de croissance en exploitant la puissance des solutions de gestion des données et de sécurité de Cohesity, améliorées par l’IA.

Pour en savoir plus, lisez le livre électronique sur l’IA.

X
Icon ionic ios-globe

Vous êtes sur le point de visualiser du contenu en anglais, souhaitez-vous continuer ?

Ne pas afficher cet avertissement

Icon ionic ios-globe

Vous êtes sur le point de visualiser du contenu en anglais, souhaitez-vous continuer ?

Ne pas afficher cet avertissement