ChatGPT en vertrouwen
ChatGPT en vertrouwen. Het lijkt wel goed te zitten. In de wereld van kunstmatige intelligentie (AI) heeft ChatGPT namelijk al enige tijd de leiding. Ik heb dat vertrouwen ook. Vooral sinds de aanzienlijke verbetering van het redenatievermogen van GPT-4, de integratie met Dall-E en de directe toegang tot internet, gebruik ik het de hele dag door. Het bespaart me enorm veel tijd, en iedereen is enthousiast over de resultaten.
Echter, er zijn ook momenten waarop je je realiseert met welke technologie je te maken hebt. Soms komt het overtuigend over, maar verkondigt het de grootst mogelijke onzin. Dan wijst iemand anders me op een feitelijke fout, of ben ik urenlang bezig om een vervelende bug op te sporen omdat ik het taalmodel heb verzocht om mijn code te ‘optimaliseren’.
ChatGPT heeft zeker beperkingen, met name op het gebied van actualiteit en nauwkeurigheid. Dit is precies de reden waarom steeds meer organisaties hun toevlucht nemen tot Retrieval-Augmented Generation (RAG) om het vertrouwen in ChatGPT te vergroten.
Puur op de bluf
Ondanks zijn indrukwekkende capaciteiten, worstelt ChatGPT met beperkingen. Een belangrijke tekortkoming is het ontbreken van actualiteit; de training van het model is gebaseerd op data tot een bepaald punt in het verleden, wat betekent dat recente gebeurtenissen of informatie buiten zijn bereik liggen. Als het om actualiteit is er weinig vertrouwen in ChatGPT.
Het meest gebruikte model, gpt-3, is bijvoorbeeld getraind met informatie tot en met september 2021. Dat betekent dat het zich niet bewust is van gebeurtenissen van na die tijd. Maar dus ook niet van, bijvoorbeeld, wetswijzigingen, van na die tijd. Het meest recente model. gpt-4 Turbo heeft kennis tot en met april 2023. Dat is actueel maar ook daar heb je weinig aan als je de meest recente wijzigingen in de belastingwetgeving nodig hebt.
Bovendien kan ChatGPT soms ‘hallucineren’, ofwel overtuigend klinkende maar onjuiste of misleidende informatie genereren. Een taalmodel is gericht op het genereren van taal, niet op het produceren van waarheid. Ondanks alle moeite die de ontwikkelaars erin steken, komt het daarom met regelmaat voor dat het model liever een antwoord genereert dan dat het aangeeft het antwoord niet te weten. En met enige regelmaat trappen wij mensen er weer in.
Deze beperkingen beïnvloeden de toepasbaarheid van ChatGPT in sectoren waar nauwkeurigheid en up-to-date informatie cruciaal zijn, zoals in de juridische en medische wereld.
Retrieval-Augmented Generation (RAG)
Om het hallucineren te voorkomen en daarmee het vertrouwen in ChatGPT te verhogen. zetten meer en meer organisaties Retrieval-Augmented Generation (RAG) in.
RAG is technische architectuur die zich het beste laat uitleggen als een tweetrapsraket die de betrouwbaarheid van de antwoorden van ChatGPT vergroot.
In de eerste stap haalt het systeem, op basis van de vraag van de gebruiker, alle benodigde relevante informatie op om de vraag te kunnen beantwoorden. Deze informatie is betrouwbaar omdat deze afkomstig is van externe bronnen die zijn geselecteerd door de gebruikers organisatie zelf. Er wordt dus geen beroep gedaan op de kennis van het taalmodel. Die is immers niet actueel en niet betrouwbaar. Hiermee wordt de basis gelegd voor een solide antwoord.
In de tweede stap combineert RAG deze verzamelde informatie met de ’taalvaardigheid’ en het redenatievermogen van ChatGPT om een accuraat en actueel antwoord te genereren.
Dit zorgt ervoor dat de antwoorden niet alleen relevant zijn, maar ook accuraat en up-to-date, wat essentieel is, vooral in sectoren waar betrouwbaarheid cruciaal is. Samengevoegd vormen deze twee stappen een krachtig instrument om de prestaties van ChatGPT te verbeteren.
Verhoog vertrouwen in ChatGPT met de implementatie van RAG
De implementatie van RAG in een project vereist nauwe samenwerking tussen de chatbot ontwikkelaar en de organisatie zelf. Het begint met het identificeren van de relevante kennisbronnen die de organisatie nodig heeft om vragen te beantwoorden. Deze bronnen worden vervolgens door de ontwikkelaars verwerkt in een kennisdatabase die toegankelijk is voor het RAG systeem.
Om ook in de toekomst betrouwbare en actuele antwoorden te kunnen genereren, is het belangrijk dat de organisatie nadenkt over manieren om deze kennis up-to-date te houden. Dit betekent dat er een proces moet worden ontwikkeld om regelmatig nieuwe informatie toe te voegen en verouderde informatie te verwijderen. Dit vereist betrokkenheid van experts binnen de organisatie en een duidelijke strategie om de relevantie en nauwkeurigheid van de kennisdatabase te waarborgen.
De chatbot ontwikkelaar speelt een cruciale rol bij het opzetten van een betrouwbaar systeem voor gegevensverzameling en -training, in samenwerking met de domein experts in de organisatie. Samenwerking tussen beiden is dan ook essentieel voor het slagen van het project.
Wil je ook meer vertrouwen in ChatGPT?
De combinatie van ChatGPT met RAG verhoogt de toepasbaarheid van AI in sectoren waar betrouwbaarheid van levensbelang is. Ben je geïnteresseerd in het verkennen van de mogelijkheden van deze geavanceerde technologie in jouw organisatie? Neem dan contact met ons op om te bespreken hoe we samen de grenzen van AI kunnen verleggen en jouw organisatie naar een hoger niveau kunnen tillen. Laten we samen innoveren!