Conversational AI: een revolutionaire tool voor het ontsluiten van interne bedrijfsdata?

21 december 2023

Moderne bedrijven beschikken over een schat aan data, maar toegang tot deze infor­matie blijft vaak een uitdaging. Tradi­ti­o­nele business intel­li­gence (BI) tools schieten tekort in het efficiënt ontsluiten van deze data. Veelal zijn ze te technisch voor doorsnee gebrui­kers en leveren ze verou­derde rapporten. De intro­ductie van conver­sa­ti­onal AI, met name in de vorm van chatbots, belooft dit landschap te veran­deren. Door hun snelle respons en het vermogen om context toe te voegen, bieden AI-chatbots bijna realtime inzichten. Het antwoord op de vraag hierboven is dus hoogst­waar­schijn­lijk: ja.

Op het recente Evolve-event van Cloudera in New York werd de waarde van conver­sa­ti­onal AI voor bedrijven benadrukt. Cruciaal is de kwaliteit van de data waarop deze AI wordt getraind. Alleen door onder­scheid te maken tussen enerzijds correcte en kwali­ta­tief hoog­waar­dige data en ander­zijds data waarvan de kwaliteit ondui­de­lijk of laag is, kunnen AI-systemen effectief worden getraind voor betrouw­bare resultaten. 

Het is van belang dat AI-modellen worden getraind met duidelijk gede­fi­ni­eerde en kwali­ta­tieve data die voldoet aan de eisen van de orga­ni­satie. Dit kan betekenen dat datasets beperkt blijven, wat weer ten goede komt aan de benodigde IT-resources. Dit is vooral belang­rijk in de beginfase, waarbij gebrui­kers nog moeten leren hoe ze het beste vragen kunnen stellen aan AI-chatbots.

De praktijk van Conversational AI

Met geavan­ceerde AI kunnen gebrui­kers complexe vragen stellen aan de chatbot. De opkomst van Large Language Models (LLM) zoals ChatGPT heeft de interesse in derge­lijke tech­no­lo­gieën enorm verhoogd. Bedrijven expe­ri­men­teren hiermee om hun interne processen en klan­tin­ter­ac­ties te verbeteren.

Tijdens het Cloudera-event werd duidelijk dat de mate waarin orga­ni­sa­ties deze tech­no­lo­gieën benutten sterk varieert. Inte­res­sant is dat niet zozeer de techniek, maar vooral de houding van eind­ge­brui­kers tegenover AI een sleu­telrol speelt. Aspecten als veran­de­rings­angst, zorgen over baan­ver­lies door AI, en twijfels over de effec­ti­vi­teit van AI waren promi­nente thema’s.

Enter­prises hebben speci­fieke eisen die verder gaan dan stan­daard­toe­pas­singen, met name op het gebied van privacy. De terug­hou­dend­heid om interne kennis te delen met externe providers is groot. Open source-modellen bieden hier waar­schijn­lijk een oplossing. Deze kunnen intern geïm­ple­men­teerd worden, hoewel niet elke IT- en business-afdeling hier technisch toe in staat is. Gespe­ci­a­li­seerde data science en AI-bedrijven bieden hier steeds meer oplos­singen voor. Zo intro­du­ceerde Cloudera een ‘Applied Machine Learning Prototype’ (AMP), een LLM Chatbot verrijkt met enter­prise-data, volledig gebaseerd op open source-technologie.

Applied Machine Learning Prototypes

AMPs zijn kant-en-klare, end-to-end machine learning-projecten, ontworpen om speci­fieke bedrijfs­cases te onder­steunen. Bij Cloudera bijvoor­beeld, kan men met één klik een ML-project selec­teren en imple­men­teren uit de AMP-catalogus.

De imple­men­tatie van een AMP omvat drie stappen:

1. Resource checks: het veri­fi­ëren van beschik­bare IT-middelen.

2. Project setup: het instal­leren van afhan­ke­lijk­heden en down­lo­aden van het model.

3. ETL-proces: het vullen van een vector database met eigen data voor training.

De kwaliteit van de chatbot-reacties is afhan­ke­lijk van de kwaliteit van de data in de vector database. Het is essen­tieel om de gebruikte kennis­basis zorg­vuldig te orga­ni­seren en op te schonen.

AMP in actie

Het AMP-proces gebruikt Retrieval-Augmented Gene­ra­tion (RAG) voor het genereren van nauw­keu­rige antwoorden. Eerst wordt context uit een kennis­bank toege­voegd aan de vraag van de gebruiker. Vervol­gens wordt een verbe­terde prompt ingediend bij de LLM om het antwoord te genereren. Met andere woorden: de oorspron­ke­lijke vraag van de gebruiker plus de gevonden context worden geza­men­lijk als een nieuwe prompt bij het model ingegeven. Het resultaat wordt gepre­sen­teerd via een webap­pli­catie, waardoor gebrui­kers gede­tail­leerde en accurate antwoorden krijgen. 

De ervaring van Cloudera met dit proces laat zien dat het AMP-prototype contex­tueel relevante en goed geïn­for­meerde reacties genereert, wat de gebrui­ker­s­er­va­ring aanzien­lijk verbetert. Conver­sa­ti­onal AI chatbots bieden dan ook veel poten­tieel voor het efficiënt ontsluiten van interne data in bedrijven. Het Evolve-event toonde aan dat er een grote interesse is in het gebruik van deze tech­no­logie voor een vraag- en antwoord­ge­stuurde bena­de­ring. Verschil­lende orga­ni­sa­ties hebben al succes geboekt met AMP’s, zo bleek tijdens Evolve, variërend van auto­fa­bri­kanten tot farma­ceu­ti­sche bedrijven en banken.

Pin It on Pinterest

Share This