Slimme schadeafhandeling met RAG: de samenwerking tussen mens en AI

Jack Klein-Schiphorst
Het proces van schadeclaims afhandelen is arbeidsintensief en moet secuur gebeuren. Elke claim moet zorgvuldig worden onderzocht. Wat is de aard van de schade? Is er voldoende bewijslast? Past de claim binnen de polisvoorwaarden? En hoe verhoudt dit zich tot eerdere claims van dezelfde verzekerde? Kan er sprake zijn van coulance? Het beoordelen van al deze elementen vraagt om expertise, interpretatie en toegang tot grote hoeveelheden contextspecifieke informatie. Een proces dat lang als te complex voor automatisering werd beschouwd. Of toch niet?
Met Retrieval Augmented Generation (RAG) kunnen we intelligentie toevoegen aan automatiseringen, die juist in dit soort onderzoeken excelleren. RAG maakt het mogelijk om AI-toepassingen te bouwen die context begrijpen, relevante informatie ophalen uit interne en externe bronnen en op basis daarvan antwoorden formuleren die veel verder gaan dan wat traditionele automatisering ooit kon bieden.
Wat is RAG en hoe werkt het?
Standaard Large Language Models (LLM’s), zoals ChatGPT, zijn indrukwekkend in hun vermogen om natuurlijke taal te begrijpen en genereren. Maar ze hebben duidelijke beperkingen die hen ongeschikt maken voor kritieke, bedrijfsgevoelige toepassingen zoals schadeafhandeling:
- Beperkte kennisbasis: LLM’s zijn getraind tot een bepaald moment in het verleden. Alles wat daarna is gebeurd is niet meegenomen in hun ‘kennis’.
- Publieke data: Ze zijn getraind op open, publiek beschikbare data. Ze hebben geen toegang tot jouw specifieke documenten, voorwaarden of klantgeschiedenis.
- Gebrek aan transparantie: LLM’s geven antwoorden zonder hun bronnen te tonen. Ze “weten” iets, maar je kunt als gebruiker niet nagaan waarom of waarop dat antwoord gebaseerd is.
- Hallucinaties: Omdat het model altijd iets probeert te antwoorden, bestaat er een reëel risico dat het dingen verzint die niet kloppen. Zeker bij juridische of financiële informatie kan dit leiden tot fouten met grote gevolgen.
Deze beperkingen maken standaard LLM’s ongeschikt voor volledig vertrouwen in kritische processen of toepassing in bedrijfsprocessen. En precies hier biedt Retrieval Augmented Generation (RAG) een oplossing.
RAG: het brugmodel tussen AI en betrouwbare informatie
RAG combineert de taalvaardigheid van een LLM met de kracht van een doorzoekbare kennisbron. Het werkt in twee stappen:
- Retrieval: Eerst zoekt RAG in een vooraf gedefinieerde kennisbank, denk aan polisvoorwaarden, juridische documenten, schadehistorie of interne handleidingen. Dit gebeurt met slimme zoektechnieken (bijvoorbeeld semantische zoekalgoritmes) die niet alleen naar woorden, maar naar betekenis kijken.
- Generation: Vervolgens gebruikt het taalmodel de gevonden informatie als basis om een antwoord te formuleren. Dit maakt het resultaat niet alleen inhoudelijk sterker, maar ook beter onderbouwd en transparanter.
Een RAG-toepassing kan dus antwoord geven op complexe vragen met actuele, domeinspecifieke informatie én daarbij precies laten zien welke bronnen (en zelfs paragrafen) gebruikt zijn. Hierdoor kun je als gebruiker controleren, valideren en -waar nodig- corrigeren.
De kracht van RAG, RPA en Low-code in schadeafhandeling
Wanneer je RAG combineert met Robotic Process Automation (RPA), Low-code applicaties en de mens, ontstaat een krachtige combinatie. Elk onderdeel draagt iets unieks bij aan het proces:
RPA: de handen
RPA automatiseert de repetitieve en structurele handelingen rondom de schadeclaim. Denk aan het ophalen van dossiers, het verwerken van e-mails, het openen van systemen of het verzamelen van bijlagen en polisgegevens. RPA zorgt dat de juiste informatie beschikbaar is op het moment dat deze nodig is.
RAG: het brein
RAG gebruikt deze informatie om slimme analyses te doen. Wat staat er in de polis over dit type schade? Zijn er vergelijkbare gevallen uit het verleden? Klopt de claim met de ingediende bewijslast? RAG haalt relevante passages op, vat samen, en geeft voorstellen voor een antwoord of beoordeling.
Low-code applicaties: de brug naar de mens
De mens blijft essentieel. Omdat LLM’s zoals die in RAG geen harde ‘confidence’ scores geven en af en toe onjuiste of incomplete antwoorden kunnen genereren, is controle nodig. Hier komt de kracht van low-code naar voren.
In een intuïtieve low-code interface worden de antwoorden van de RAG gepresenteerd, samen met de onderliggende bronnen waarop ze gebaseerd zijn. De behandelaar ziet dus niet alleen het voorstel, maar ook de context: de passages uit de polis, de relevante jurisprudentie of eerdere cases. Hiermee wordt de mens optimaal ondersteund in het nemen van een geïnformeerde beslissing, zonder zelf eindeloos te hoeven zoeken.
Dit is de harmonie tussen AI en mens: de RAG doet het lastige zoekwerk, vat samen, en de behandelaar behoudt de regie.
Op weg naar Agentic AI
De volgende stap in deze evolutie is Agentic AI. Waar RAG nu nog alleen observeert en adviseert, ontstaat er een toekomst waarin AI ook zelfstandig handelingen uitvoert: documenten opvragen, systemen invullen, dossiers afsluiten. Niet op basis van vooraf gedefinieerde stappen zoals bij RPA, maar door zelf te bepalen welke acties nodig zijn om een doel te bereiken, ondersteund door context en tools.
Agentic AI combineert de kracht van RAG met tool-use, waardoor de AI niet alleen weet wat er moet gebeuren, maar ook hoe dit moet worden gedaan. Denk aan een digitale assistent die een schadeclaim zelfstandig analyseert, aanvullende informatie opvraagt via e-mail of API, en de claim vervolgens afhandelt of voorlegt aan een behandelaar met een compleet onderbouwd voorstel.
Conclusie
Schadeafhandeling is bij uitstek een proces dat profiteert van de samenwerking tussen mens en AI. Retrieval Augmented Generation brengt intelligentie en context, RPA automatiseert de handelingen eromheen, en low-code maakt het mogelijk om menselijk oordeel centraal te houden. Door vandaag al te investeren in deze technologieën, zetten verzekeraars een stap richting een toekomst waarin claims sneller, slimmer en zorgvuldiger worden afgehandeld, met de mens als regisseur en de AI als onmisbare partner.
Heeft u kernapplicatie deze mogelijkheden niet? Dan kan dit dus met RPA, AI en lowcode software zoals Microsoft of UiPath binnen enkele weken worden gerealiseerd.