Het project beoogde een onderzoek te doen naar aspecten die een rol spelen bij de implementatie van uitlegbare AI in de financiële sector. Daartoe is een literatuuronderzoek uitgevoerd en zijn vier use-cases van Floryn en de Volksbank nader onderzocht. Het resultaat van deze onderzoeken zijn een conceptueel model van aspecten die een keuze of beslissing vereisen met betrekking tot de uitlegbaarheid van een AI-systeem alsmede een op dat model gebaseerde checklist. Twee focusgroepen hebben het model en checklist gevalideerd. Op een meetup op 11 november 2022 zijn de projectresultaten gepresenteerd en hebben de consortiumpartners Floryn, de Volksbank en Researchable gepresenteerd hoe zij in hun praktijk omgaan met uitlegbare AI.
Het project wijst uit dat het uitlegbaar maken van AI-systemen vereist dat die systemen daarop ingericht worden. Het belangrijkste daarbij is dat uitlegbaarheid vanaf het begin meegenomen wordt bij het ontwerpen en bouwen van AI-systemen. Dat betekent dat in alle fasen van de realisatie van zo’n systeem maatregelen genomen worden om een passende uitleg te kunnen geven. We noemen dit “Explainable AI by Design”. Als uitlegbaarheid niet vanaf het begin wordt meegenomen, loop je het risico dat je dat achteraf moet toevoegen. Dat is in de meeste gevallen complexer en duurder en kan in sommige gevallen leiden tot het compleet opnieuw moeten ontwerpen en bouwen van het AI-systeem.
De in het project ontwikkelde checklist zorgt ervoor dat in alle fasen van de realisatie van een AI-systeem de juiste maatregelen worden genomen om belanghebbenden een passende uitleg te kunnen geven van dat systeem. De checklist is bestemd voor iedereen die een rol heeft in het realiseren van AI-systemen. De checklist is ontwikkeld voor de financiële sector maar is ook bruikbaar in andere sectoren waar de impact van AI substantieel is en vertrouwen belangrijk is, zoals de publieke sector en de gezondheidszorg.
Artificiële intelligentie (AI), en machine learning in het bijzonder, wordt meer en meer toegepast in de Nederlandse financiële sector. Uitlegbaarheid van de uitkomsten en werking van AI-toepassingen wordt daarbij gezien als een belangrijke voorwaarde om vertrouwen van consumenten en maatschappij in AI-toepassingen te borgen. Financiële dienstverleners zien dan ook het belang van uitlegbare AI maar geven aan te worstelen met de implementatie: er komt veel meer bij kijken dan in eerste instantie gedacht. Uitlegbare AI is niet louter een technisch vraagstuk, maar ook een sociaal, juridisch en ethisch vraagstuk. Dit project heeft tot doel in kaart te brengen wat er komt kijken bij de implementatie van uitlegbare AI. Dit gebeurt door use-cases van financiële dienstverleners te onderzoeken waar AI en soms ook al uitlegbare AI wordt toegepast en door literatuuronderzoek. Vervolgens wordt samen met consortium- en netwerkpartners een model ontwikkeld en gevalideerd van aspecten die van belang zijn bij de implementatie van uitlegbare AI. Het model wordt uitgewerkt in een praktisch bruikbare checklist en een wetenschappelijke publicatie. Daarnaast heeft dit project tot doel het netwerk verder uit te breiden en een aanvraag voor vervolgonderzoek te definiëren om uiteindelijk te komen tot een integrale aanpak voor uitlegbare AI.