Explainable AI (XAI)

Explainable AI (XAI) is kunstmatige intelligentie die is geprogrammeerd om zijn doel, rationale en besluitvormingsproces te beschrijven op een manier die kan worden begrepen door de gemiddelde persoon. XAI wordt vaak besproken in relatie tot deep learning en speelt een belangrijke rol in het FAT ML-model (fairness, accountability and transparency in machine learning).

XAI geeft algemene informatie over hoe een AI-programma een beslissing neemt door openbaar te maken:

  • De sterke en zwakke punten van het programma.
  • De specifieke criteria die het programma gebruikt om tot een beslissing te komen.
  • Waarom een programma een bepaalde beslissing neemt in tegenstelling tot alternatieven.
  • Het niveau van vertrouwen dat passend is voor verschillende soorten beslissingen.
  • Welke soorten fouten het programma geneigd is te maken.
  • Hoe fouten kunnen worden gecorrigeerd.

Een belangrijk doel van XAI is om algoritmische verantwoordelijkheid te bieden. Tot voor kort waren AI-systemen in wezen zwarte dozen. Zelfs als de inputs en outputs bekend zijn, zijn de algoritmen die worden gebruikt om tot een beslissing te komen vaak propriƫtair of niet gemakkelijk te begrijpen, ondanks het feit dat de innerlijke werking van de programmering open source is en vrij beschikbaar wordt gesteld.

Naarmate kunstmatige intelligentie steeds gangbaarder wordt, wordt het belangrijker dan ooit om bekend te maken hoe vooringenomenheid en de kwestie van vertrouwen worden aangepakt. De General Data Protection Regulation (GDPR) van de EU bevat bijvoorbeeld een clausule over het recht op uitleg.