Is uitlegbare toepassing van AI in de financiële dienstverlening noodzakelijk?

Olivier Koster, student van de universiteit van Leiden heeft met SIVI onderzoek gedaan naar de uitlegbaarheid (Explainability) van uitkomsten van toepassingen die artificial intelligence (AI) gebruiken. Hierbij heeft Olivier met name specifiek naar het domein financiële dienstverlening gekeken. De uitkomsten van het onderzoek zijn samengevat in een paper. Daarnaast is de online SIVI Checklist Onbemenste Toepassingen uitgebreid met een onderdeel over uitlegbaarheid.

Artificial intelligence (AI) is een krachtige techniek in de IT die men op steeds meer terreinen inzet. Ook in de verzekeringsbranche. Maar met de toenemende populariteit komen ook vragen. Wat is AI eigenlijk? Verstaan we allemaal hetzelfde onder AI? Kunnen mensen nog uitleggen of herleiden wat een AI-toepassing heeft gedaan? Hoe zit het met de vooringenomenheid van een AI-toepassing? In de paper ‘A checklist for Explainable AI in the Insurance Domain’ gaan de auteurs dieper op dit soort vragen in.
Ook leggen zij het dilemma bloot tussen uitlegbaarheid en accuraatheid. Hoe innovatiever de AI-toepassing, hoe groter de accuraatheid wordt. Tegelijkertijd neemt de uitlegbaarheid wel af. Welke keuze maakt een verzekeraar dan?

Je kunt de paper ‘A checklist for Explainable AI in the Insurance Domain’ downloaden via de downloadlink rechts op deze pagina. Een aantal bronnen uit de paper is te vinden in de Kennisbank Kwaliteit Onbemenste Toepassingen.