AI code of ethics

Een AI code of ethics, ook wel een AI value platform genoemd, is een beleidsverklaring die formeel de rol van kunstmatige intelligentie definieert zoals die van toepassing is op de verdere ontwikkeling van het menselijk ras. Het doel van een AI-ethiekcode is om belanghebbenden een leidraad te bieden wanneer ze worden geconfronteerd met een ethische beslissing over het gebruik van kunstmatige intelligentie.

Isaac Asimov, de sciencefictionschrijver, voorzag de potentiële gevaren van autonome AI-agenten lang voordat ze werden ontwikkeld en creëerde De Drie Wetten van Robotica als een middel om die risico's te beperken. In Asimovs ethische code verbiedt de eerste wet robots om mensen actief schade te berokkenen of toe te laten dat mensen schade wordt berokkend door te weigeren te handelen. De tweede wet gebiedt robots om mensen te gehoorzamen, tenzij de bevelen niet in overeenstemming zijn met de eerste wet. De derde wet beveelt robots zichzelf te beschermen, voor zover dit in overeenstemming is met de eerste twee wetten.

Hoewel ontwikkelaars zich nog in de beginfase van de invoering van AI bevinden, is het belangrijk voor bedrijven om een ethische en verantwoordelijke aanpak te hanteren bij het creëren van AI-systemen. Daartoe heeft een non-profit instituut, opgericht door MIT-kosmoloog Max Tegmark, Skype-medeoprichter Jaan Tallinn en DeepMind-onderzoekswetenschapper Viktoriya Krakovnahas, samen met AI-onderzoekers en -ontwikkelaars een reeks leidende principes opgesteld die nu de Asilomar AI Principles worden genoemd. Deze AI-ethiek schrijft het volgende voor:

  • Het doel van AI-onderzoek moet niet zijn om ongerichte intelligentie te creëren, maar nuttige intelligentie.
  • Investeringen in AI moeten vergezeld gaan van financiering voor onderzoek naar het waarborgen van het nuttige gebruik ervan.
  • Als een AI-systeem schade veroorzaakt, moet het mogelijk zijn om vast te stellen waarom.
  • Als een autonoom systeem betrokken is bij gerechtelijke besluitvorming, moet het een bevredigende verklaring geven die door een bevoegde menselijke autoriteit kan worden gecontroleerd.
  • Er moet een constructieve en gezonde uitwisseling zijn tussen AI-onderzoekers en beleidsmakers.
  • Er moet een cultuur van samenwerking, vertrouwen en transparantie worden bevorderd onder onderzoekers en ontwikkelaars van AI.
  • Teams die AI-systemen ontwikkelen, moeten actief samenwerken om te voorkomen dat aan veiligheidsnormen wordt getornd.
  • AI-systemen moeten gedurende hun hele operationele levensduur veilig en betrouwbaar zijn, waar dat mogelijk en uitvoerbaar is.
  • Ontwerpers en bouwers van geavanceerde AI-systemen zijn belanghebbenden bij de morele implicaties van hun gebruik, misbruik, en acties, met een verantwoordelijkheid en de mogelijkheid om die implicaties vorm te geven.
  • Hoog autonome AI-systemen moeten zo worden ontworpen dat hun doelen en gedragingen kunnen worden gewaarborgd om in overeenstemming te zijn met de menselijke waarden gedurende hun gehele werking.
  • AI-systemen moeten zo worden ontworpen en gebruikt dat zij verenigbaar zijn met idealen van menselijke waardigheid, rechten, vrijheden en culturele diversiteit.
  • Mensen moeten het recht hebben op toegang tot, beheer van en controle over de gegevens die zij genereren, gezien de macht van AI-systemen om die gegevens te analyseren en te gebruiken.
  • De toepassing van AI op persoonsgegevens mag de werkelijke of vermeende vrijheid van mensen niet op onredelijke wijze beknotten.
  • AI-technologieën moeten zoveel mogelijk mensen ten goede komen en mondiger maken.
  • De door AI gecreëerde economische welvaart moet breed gedeeld worden, zodat de hele mensheid ervan kan profiteren.
  • Mensen moeten kiezen hoe en of ze beslissingen aan AI-systemen delegeren, om door mensen gekozen doelstellingen te verwezenlijken.
  • De macht die wordt verleend door de controle over zeer geavanceerde AI-systemen moet de sociale en maatschappelijke processen waarvan de gezondheid van de samenleving afhangt, respecteren en verbeteren, in plaats van ondermijnen.
  • Risks posed by AI systems, especially catastrophic or existential risks, must be subject to planning and mitigation efforts commensurate with their expected impact.
  • An arms race in lethal autonomous weapons should be avoided.