Generative AI voor het beantwoorden van klantvragen
ChatGPT, een chatbot op basis van een Large Language Model (LLM), doet nog altijd veel stof opwaaien. Nu Microsoft het met de dienst Copilot nog makkelijker maakt om ChatGPT toe te passen binnen je eigen bedrijfsomgeving, ontstaat bij velen het idee: dit is hét moment om een chatbot voor klanten of medewerkers te ontwikkelen. Dan hoeven zij niet langer het contactcenter of een servicedesk te bellen voor meer complexe vragen, maar kunnen ze zelf op zoek naar het antwoord. Dat idee is goed, maar er komt in de praktijk nog wel wat bij kijken, weet Bastiaan Sjardin, CTO en AI Strategist bij Future Facts Conclusion.
25 april 2024 | Blog | Door: Bastiaan Sjardin, CTO and AI Strategist at Future Facts Conclusion
Deel
Wat verstaan we onder generative AI voor klantcontact?
“Chatbots bestaan al heel lang”, zegt hij. “Ze worden vooral gebruikt voor de eenvoudige vragen die makkelijk te scripten zijn. In het klantcontact gaat het om vragen zoals: ‘waar kan ik mijn factuur vinden?’ En bij een service desk om vragen zoals: ‘hoe reset ik mijn wachtwoord?’ Er zijn wel bedrijven die hebben geprobeerd AI in zo’n chatbot te integreren, maar dat is veel complexer. Want AI heeft de eigenschap om fictieve antwoorden te geven op vragen, maar die te presenteren alsof het feiten zijn.
Dit wordt ook wel hallucineren genoemd. Het feit dat AI nieuwe ideeën kan genereren is een grote kracht van de technologie, maar in het klantcontact is het juist een zwakte. Je wilt namelijk wel zeker weten dat het antwoord dat de chatbot geeft klopt. In de praktijk zetten organisaties chatbots daarom vaak alleen in voor de eenduidige vragen die je van A tot Z kunt scripten. De meer complexe vragen, en zeker vragen met een adviescomponent, worden overgelaten aan specialisten, zoals contactcenter agents of service desk-medewerkers.”
Met de huidige krapte op de arbeidsmarkt is het niet vreemd dat bedrijven hongerig uitkijken naar de mogelijkheden van ChatGPT. Zeker naar de mogelijkheden om het toe te passen op documenten van je eigen organisatie, bijvoorbeeld een eigen kennisbank. Want in plaats van zelf handmatig de kennisbank te doorzoeken, hoeven medewerkers dan alleen nog maar een vraag in te typen. Het LLM formuleert vervolgens, gebruikmakende van Natural Language Processing (NLP), heldere antwoorden.
ChatGPT heeft een enorme sprong gemaakt ten opzichte van eerdere chatbots door de rijkheid van het onderliggende LLM
Wat zijn de voordelen van generative AI?
ChatGPT heeft een enorme sprong gemaakt ten opzichte van eerdere chatbots door de rijkheid van het onderliggende LLM. De bot kan goed leesbare teksten genereren op de zes taalniveaus die het Europese referentiekader CEFR onderscheidt. Je kunt namelijk meegeven op welk niveau de tekst geschreven moet worden. Je kunt bovendien eenvoudig aangeven welke documenten als bron mogen worden gebruikt. Zo hou je de controle over de kwaliteit van de antwoorden, want je weet zeker dat de chatbot geen foutieve broninformatie gebruikt.
Waarom is generative AI zo complex?
Dat betekent echter niet dat alle antwoorden daarom per definitie aansluiten bij wat je verwacht. Want de chatbot kan nog altijd gaan hallucineren. Hij kan informatie in een verkeerde context gebruiken of de vorm van de output sluit niet aan bij wat je verwacht.
Het succes van generative AI in bedrijfsomgevingen valt of staat daarom met goede prompt engineering. De prompt moet rekening houden met de gewenste toon van het antwoord en het vereiste nauwkeurigheidsniveau. Om ervoor te zorgen dat de bot altijd het gewenste antwoord geeft op een vraag, zul je heel veel prompts moeten maken. Alleen dan kun je de relevantie en kwaliteit van de antwoorden garanderen. De gegenereerde output zul je vervolgens moeten valideren bij zowel specialisten als eindgebruikers.
Waarschijnlijk is de reactie van mensen wisselend, waardoor je na zo’n validatiesessie eindigt met een heleboel input om de prompts te verbeteren. Het is dan ook een proces wat je zult moeten blijven herhalen. Bastiaan: “Je moet een systeem implementeren voor continu leren, waarbij je feedback van eindgebruikers en specialisten gebruikt om de AI-modellen voortdurend bij te werken. Zo maak je een adaptief systeem dat steeds beter presteert naarmate je het langer gebruikt.”
Generative AI in de praktijk bij APG
Pensioenuitvoerder APG gebruikt in het contactcenter al jarenlang chatbots. Het bedrijf wil op basis van de nieuwe mogelijkheden in ChatGPT graag een stap verder gaan en vroeg Future Facts Conclusion om hierin mee te denken. Bastiaan: “In eerste instantie hebben we meegedacht in de Ideation-fase. Daaruit kwamen wel 20, 25 ideeën naar voren hoe we generative AI kunnen inzetten om het klantcontact te verbeteren.
Die ideeën zijn geprioriteerd op aspecten zoals haalbaarheid, positieve impact en investering. We hebben een generiek framework ontwikkeld dat we voor iedere vraag op het gebied van generatieve AI kunnen inzetten. Aan de voorkant kost dat wat meer tijd om te ontwikkelen, maar het zorgt ervoor dat we naar een architectuur en organisatie gaan die is ingericht om generatieve AI op een verantwoorde manier te realiseren.
Door de framework-aanpak kunnen we bijvoorbeeld eenmaal ontwikkelde prompts hergebruiken. Dat levert ons straks niet alleen tijdwinst op, maar zorgt ook voor een hogere kwaliteit. Dat is voor APG extra belangrijk, want zoals gezegd heeft AI de neiging om te gaan hallucineren. APG mag natuurlijk geen fouten maken; ze staan onder streng toezicht. Met het framework garanderen we dat we de lessen uit het ene project meenemen in het andere.”
Het succes van generative AI in bedrijfsomgevingen valt of staat daarom met een goede prompt engineering.
Bastiaan Sjardin
CTO en AI Strategist bij Future Facts Conclusion