Blog

LLM´s zijn het vuur. JEPA de potentiële elektriciteit.

25 april 2025
Door: Skip van der Meer

Deel

Skip van der Meer
Senior Data & IT Consultant
svandermeer@yellowtail.nl

31 Augustus 1955 is de dag dat John McCarthy, Marvin Minsky, Nathaniel Rochester en Claude Shannon een term bedenken die nu zo veelvuldig gebruikt wordt, dat er geen dag voorbij gaat waarin dit niet door je oorschelpen suist: “Artificial Intelligence”. Drie matrix films, Ex Machina en I,Robot verder, heeft ChatGPT sinds februari 2025 ongeveer 400 miljoen (!) wekelijkse actieve gebruikers.

In de afgelopen tijd hebben Large Language Models (LLM’s) een sprong teweeggebracht die doet denken aan wat het vuur ooit voor de mensheid betekende: ineens is er een krachtig gereedschap dat de wereld compleet verandert. Tegelijkertijd kennen we ook de beperkingen en risico’s. Deze blog duikt in dat “sprekende vuur” en laat zien wat voor mogelijkheden en gevaren er zijn. Vervolgens werpen we een blik op de potentiële opvolger van de huidige generatie LLM’s: Joint Embedding Predictive Architecture (JEPA), dat door sommigen al wordt gezien als de “elektriciteit” die de wereld van AI verder kan transformeren.

Wat zijn LLM's en hoe werken ze?

LLM’s zijn AI-systemen die getraind zijn op gigantische hoeveelheden tekst, afbeeldingen en video’s. Door deze hoeveelheid trainingsdata kunnen dit soort modellen content genereren en bestaande informatie contextueel begrijpen. Vandaar de term Generative AI. Denk hierbij aan chatbots, het automatisch genereren van rapporten, of realtime risicoberekeningen op basis van ongestructureerde data. 

In de financiële sector - en daarbuiten - zijn de usecases van LLM’s al volop in ontwikkeling.Van het vervangen van telefonische klantenservices tot aan AI Co-scientists. De mogelijkheden zijn bijna onbegrends en iedereen maakt er wel gebruik van. Toch is het belangrijk om ons bewust te zijn van de beperkingen van LLM’s. Een LLM is te vergelijken met een zelflerende assistent die snel praat, maar niet altijd zeker weet waarover. Zolang je de LLMs op een gestructureerde en beheersbare manier inzet, kan het een enorme versneller zijn. Maar een financieel adviseur vervangen voor een volledig autonome AI-robot zoals een NS-5 uit I Robot? Dat is voorlopig nog sciencefiction.

Beperkingen van LLM’s

Ondanks hun kracht in het genereren van tekst, hebben LLM’s ook duidelijke beperkingen – zeker wanneer we kijken binnen de financiële sector, waar nauwkeurigheid, betrouwbaarheid en risicobeheersing centraal staan. Zo ‘begrijpen’ ze de wereld niet echt op de manier zoals mensen dat doen. Ze hebben geen gezond verstand of een mentale voorstelling van de fysieke realiteit. LLM’s voorspellen puur op basis van patronen in taal en de daarop gedistilleerde waarschijnlijkheid, zonder te weten of een zin logisch of waar is; het mist begrip van de echte wereld.

Een direct gevolg daarvan zijn zogeheten hallucinaties: antwoorden klinken overtuigend, maar zijn feitelijk onjuist. Vergelijk het met Jordan Belfort die aandelen verkoopt – je twijfelt, maar het klinkt zo goed dat je het wel bijna moet geloven. Deze hallucinaties kunnen in een businesscontext voor ontzettend grote problemen zorgen. Neem bijvoorbeeld de rechtszaak waarbij een chatbot van Air Canada ten onrechte een korting beloofde – en het bedrijf uiteindelijk aansprakelijk werd gesteld (bron). Dit voorbeeld laat zien hoe belangrijk het is om generative AI-systemen niet blind te vertrouwen, zeker in klantgerichte omgevingen.

Een andere tekortkoming van LLM’s is dat ze geen langdurig geheugen of planningsvermogen hebben. Een LLM genereert elk volgend woord zonder een expliciet plan voor de hele zin of paragraaf. Hierdoor kunnen kleine fouten aan het begin van een antwoord uitgroeien tot een incorrecte of inconsistente uitkomst. Kortom, LLM’s zijn geweldige patroonherkenners in de wereld van taal, maar missen een dieper begrip van wat die taal daadwerkelijk beschrijft in de echte wereld. In sectoren als finance is dat een wezenlijk probleem. Er zijn de afgelopen tijd stappen gezet door het toevoegen van short- & long term memory, maar dat is nog niet genoeg.

Kortom: LLM’s maken veel mogelijk, maar zijn tegelijkertijd frustrerend. Ze zijn nuttig als assistent – niet als adviseur. Daarom blijft menselijk toezicht cruciaal. Alleen door vakinhoudelijke beoordeling en kritisch denken kunnen we de kwaliteit en betrouwbaarheid van de output waarborgen. Want hoe kan ik vertrouwen dat een LLM mij quantum mechanica op een goeie manier kan uitleggen, als die niet eens weet hoe vaak de letter R in het woord strawberry voorkomt?

Toepassingen in de praktijk

Zoals eerder aangegeven in deze blog zijn er tal van waardevolle toepassingen te realiseren met de huidige generatie LLM’s en de rek die nog in die architectuur zit. Het is dan ook geen toeval dat toonaangevende bedrijven uit de financiële sector zoals Klarna, Rakuten, Adyen veelvuldig inzetten op AI en LLM’s om processen te optimaliseren en klantbeleving te versterken. Het is belangrijk om dit goed en gecontroleerd in te richten. Zonder een duidelijk kader kan de applicatie uit de bocht vliegen of ongewenst gedrag vertonen.

AI-gedreven platform voor hypotheekadvies

Conclusion is volop aan de slag met generative AI. Een goed voorbeeld hiervan is hoe Maarten Tellegen, Director Hypact Advisor binnen Yellowtail | Conclusion, met zijn team een AI-gedreven platform ontwikkelde dat hypotheekadvies naar een hoger niveau tilde: van inventarisatie en advies tot bemiddeling en klantcommunicatie. Met dit platform legt hij de basis van een data gedreven en AI-verrijkte aanpak. Onder Maartens leiding wordt het platform nu versneld uitgebreid met AI-functionaliteiten die onder meer documenten automatisch inlezen, klantdata extraheren en controleren op juistheid. Hierdoor verloopt een aanvraag vaker direct goed (‘first-time-right’), met hogere klanttevredenheid én minder werkdruk voor adviseurs als resultaat. Zelfs het opstellen van het adviesrapport wordt met behulp van AI geautomatiseerd: klantgesprekken worden vertaald naar heldere, onderbouwde rapportages, inclusief persoonlijke motieven — volledig compliant, zonder extra handwerk. Lees het volledige artikel hier.

Chat- en voicebots maken klantcontact efficiënter

Een ander voorbeeld is hoe Yellowtail | Conclusion en Future Facts | Conclusion een grote Nederlandse pensioenuitvoerder hebben geholpen om de klantreis te verbeteren met generative AI. Waar traditionele chatbots vaak tekortschieten, hebben Yelllowtail en Future Facts een slimme voicebot ontwikkeld, die dankzij GenAI natuurlijke, interactieve gesprekken kan voeren en klanten direct van de juiste informatie voorziet. Deze oplossing verhoogt de klanttevredenheid door sneller en persoonlijker contact. In plaats van een losse toepassing ontwikkelden zij samen een breder GenAI-framework, waarmee meerdere AI-oplossingen veilig en schaalbaar kunnen worden geïmplementeerd. Dit framework houdt rekening met risico’s zoals hallucinerende output en is afgestemd op bestaande IT-processen. Lees het volledige artikel hier.

JEPA: de potentiële elektriciteit

LLM’s hebben zich razendsnel ontwikkeld, maar hun beperkingen blijven zichtbaar. Maar wat als we die beperkingen van LLM’s kunnen tackelen? Yann LeCun (Meta), een van de 3 “godfathers of AI”, benadrukt de fundamentele tekortkomingen: “ze begrijpen niet hoe de wereld werkt en kunnen zich niets herinneren, niet redeneren zoals een mens en niet plannen” (Meta’s Yann LeCun Wants to Ditch Generative AI). Daarom ontwikkelde zijn team in 2023 JEPA: een AI-model dat is ontworpen om AI te laten leren zoals wij mensen dat van nature doen: via ervaring en het vormen van een mentaal model van de wereld. In plaats van ‘educated guesses’ op het volgende woord, focust JEPA zich op representatie-leren.

Met het gevaar al te veel in de terminlogie te duiken, kunnen we het verschil van JEPA en LLM’s aangeven met een metafoor: stel je voor dat je een puzzel aan het leggen bent en je het volgende puzzelstukje moet zoeken.

· Een LLM-aanpak:

Stukje voor stukje probeert te raden welk puzzelstukje erna komt door puur naar vorm en kleur te kijken, zonder daadwerkelijk het plaatje van de hele puzzel te begrijpen.

· Een JEPA-aanpak:

Eerst een mentaal beeld vormen van wat het totaalplaatje op de puzzel zou moeten zijn en op basis daarvan het logische eerstvolgende puzzelstukje te vinden. Met andere woorden; JEPA zorgt voor een abstract begrip van de puzzel in plaats van gelijk aan de slag te gaan met een beperkte set aan kennis.

Het eerste JEPA-model richtte zich op beeldherkenning. Inmiddels is daar een video-variant aan toegevoegd: V-JEPA, die leert door simpelweg te observeren. Net als een kind dat zijn omgeving begrijpt door te kijken, kan V-JEPA passief context leren en patronen herkennen, zonder actieve input. Deze manier van leren opent de deur naar AI-systemen die beter kunnen plannen, redeneren en minder gevoelig zijn voor hallucinaties.

Toch staat JEPA nog in de kinderschoenen. Het is geen one-size-fits-all model dat kant-en-klare tekst genereert zoals ChatGPT. Er zijn aanvullende componenten nodig om bruikbare output te creëren. Maar de potentie is enorm.

Conclusie: twee varianten van vooruitgang

We hebben gezien dat LLM’s nu al impactvol en breed inzetbaar zijn, maar dat ze ook beperkingen hebben. Aan de andere kant ontstaan er nieuwe AI-architecturen zoals JEPA, die veelbelovend zijn in het oplossen van die beperkingen, maar nog in ontwikkeling. Hoe snel en hoe ver beide richtingen zich ontwikkelen, is lastig te voorspellen. Maar dat ze naast elkaar zullen bestaan en elk op hun eigen manier impact gaan maken, staat buiten kijf. De vergelijking “vuur vs. elektriciteit” is dan ook treffend: vuur bracht ons ver, maar elektriciteit ontketende een nieuw tijdperk. De vergelijking “vuur vs. elektriciteit” is dan ook treffend: vuur bracht ons ver, maar elektriciteit ontketende een nieuw tijdperk. Misschien geldt straks hetzelfde voor LLM’s en JEPA. Tot die tijd zet ik nog een keer Ex machina op en droom ik van een toekomst van JEPA-driven Ava’s (robot van Ex Machina).

Lees meerOver dit onderwerp

Onderzoeksrapport AI in finance

Aflevering 1: De Geschiedenis en Toekomst van AI met Adil Bohoudi

Aanmelden voor de nieuwsbrief van Conclusion

Altijd up-to-dateNieuwsbrief

Wil je snel en effectiefKunnen reageren in jouw markt?

Conclusion