Retrieval-augmented generation (RAG) wordt steeds belangrijker bij GenAI

19 september 2024

Retrieval-augmented generation (RAG) speelt een steeds grotere rol in de discussies binnen bedrijven over generatieve AI (GenAI), blijkt uit een analyse van onderzoeksbureau GlobalData. Bedrijven willen deze technologie benutten om in realtime externe data te integreren en zo de nauwkeurigheid en relevantie van door AI gegenereerde antwoorden te verbeteren. 

Deze trend weerspiegelt de toenemende focus op het combineren van eigen, dynamische gegevens met AI-modellen, zo blijkt uit de gegevens van GlobalData’s Company Filings Analytics Database.

Wat is Retrieval-augmented generation (RAG)?

Retrieval-augmented generation (RAG) is een AI-techniek waarbij een generatief AI-model wordt gecombineerd met een retrieval-systeem dat externe data kan opvragen. In plaats van alleen te vertrouwen op een vooraf getraind model, kan een RAG-systeem tijdens het genereren van een antwoord ook actuele en relevante informatie opzoeken in externe databases of bronnen. Dit zorgt ervoor dat de gegenereerde output niet alleen gebaseerd is op bestaande kennis van het model, maar ook wordt verrijkt met realtime gegevens. Hierdoor zullen antwoorden accurater en relevanter worden voor specifieke vragen, terwijl de kans op AI-hallucinaties – het genereren van onjuiste of misleidende informatie – afneemt.

Volgens Misa Singh, bedrijfsanalist bij GlobalData, richten veel bedrijven zich nog altijd op traditionele generatieve AI-modellen. Maar een aantal pioniers ziet in RAG een kans om betere resultaten te behalen. “De gesprekken gaan vooral over het verbeteren van resultaten, het minimaliseren van AI-hallucinaties en het versterken van technische ondersteuning voor producten”, aldus Singh. Bedrijven werken ook steeds vaker samen om hun diensten te integreren en zogeheten ‘RAG pipelines’ te ontwikkelen waarmee vragen sneller en nauwkeuriger kunnen worden beantwoord.

Een voorbeeld hiervan is Amazon, dat het Amazon Bedrock-platform heeft ontwikkeld. Dit platform biedt niet alleen een brede selectie van large language models (LLMs), maar maakt ook gebruik van RAG om de kennisbasis van deze modellen te verrijken. Hierdoor kunnen applicaties beter controleren welke vragen ze beantwoorden en kunnen AI agents complexere taken uitvoeren.

Progress Software presenteerde onlangs hun nieuwe Progress Data Platform, dat de technologieën van MarkLogic en Progress combineert. Dit platform integreert zowel semantische als vector-gebaseerde capaciteiten om RAG te ondersteunen. Hierdoor kunnen gebruikers precies zien waar antwoorden vandaan komen en hoe deze relevant zijn. Dit leidt volgens Progress tot betere resultaten en vermindert het risico op AI-hallucinaties aanzienlijk.

Innovation Technology Group heeft aangegeven zich te richten op de verdere ontwikkeling van RAG- en zogeheten ‘agent engineering frameworks’, met als doel technische ondersteuning te bieden voor de continue verbetering van producten zoals ChatDoc en ChatRobot Pro. Ook Pure Storage benadrukte in hun recente winstbespreking dat ze RAG als een veelbelovende kans zien.

Daarnaast werkt een bedrijf als Confluent samen met Pinecone aan de ontwikkeling van de vector-database architectuur, Pinecore serverless geheten. Deze samenwerking stelt klanten in staat om RAG pipelines te bouwen die hun realtime, eigen data kunnen combineren met algemene AI-modellen. Dit biedt de mogelijkheid om op maat gemaakte, actuele antwoorden te genereren, gebaseerd op de meest recente gegevens.

De toenemende aandacht voor RAG toont aan dat deze technologie een belangrijke rol zal spelen in de evolutie van generatieve AI, aldus Global Data. Door de mogelijkheid om realtime data te integreren, biedt RAG bedrijven de kans om de nauwkeurigheid van AI-antwoorden te verbeteren en transparantie te bieden over de herkomst van informatie. Dit maakt RAG aantrekkelijk voor organisaties die streven naar betere AI-oplossingen en een betere gebruikerservaring.

Pin It on Pinterest

Share This