Asilomar AI Principles

Asilomar AI Principles zijn 23 richtlijnen voor het onderzoek naar en de ontwikkeling van kunstmatige intelligentie (AI). De Asilomar-principes schetsen AI-ontwikkelingskwesties, ethiek en richtlijnen voor de ontwikkeling van gunstige AI en om de ontwikkeling van gunstige AI te vergemakkelijken. De grondbeginselen zijn tot stand gekomen op de Asilomar-conferentie over gunstige AI in 2017 in Pacific Grove, Californië. De conferentie werd georganiseerd door het Future of Life Institute. 

Het Future of Life Institute is een non-profitorganisatie met als missie "het katalyseren en ondersteunen van onderzoek en initiatieven voor het veiligstellen van het leven en het ontwikkelen van optimistische visies op de toekomst, waaronder positieve manieren voor de mensheid om zijn eigen koers te sturen, rekening houdend met nieuwe technologieën en uitdagingen." De organisatie werd in 2014 opgericht door MIT-kosmoloog Max Tegmark, Skype-medeoprichter Jaan Tallinn, natuurkundige Anthony Aguirre, Viktoriya Krakovna en Meia Chita-Tegmark. Op dit moment hebben 1.273 onderzoekers op het gebied van kunstmatige intelligentie en robotica de principes ondertekend, evenals 2.541 andere ondertekenaars uit verschillende sectoren. 

Vaak zijn de principes een duidelijke verklaring van mogelijke ongewenste uitkomsten, gevolgd door een aanbeveling om zo'n gebeurtenis te voorkomen. Bijvoorbeeld, onder de categorie ethiek en waarden, verklaart het principe AI wapenwedloop dat een wapenwedloop in dodelijke autonome wapens moet worden vermeden.

De Asilomar AI Principles zijn onderverdeeld in 3 categorieën: Onderzoek, Ethiek en Waarden en Lange Termijn Kwesties.

Asilomar AI principes

Onderzoek

  • Onderzoek - Het doel van AI-onderzoek moet zijn om geen ongerichte intelligentie te creëren, maar nuttige intelligentie.
  • Onderzoeksfinanciering - Investeringen in AI moeten gepaard gaan met financiering van onderzoek naar het nuttige gebruik ervan.
  • Betrekking wetenschap-beleid - Er moet een constructieve en gezonde uitwisseling zijn tussen AI-onderzoekers en beleidsmakers.
  • Onderzoekscultuur - Een cultuur van samenwerking, vertrouwen en transparantie moet worden bevorderd onder onderzoekers en ontwikkelaars van AI.
  • Racevermijding - Teams die AI-systemen ontwikkelen, moeten actief samenwerken om te voorkomen dat er aan veiligheidsnormen wordt getornd.

Ethiek en waarden

  • Veiligheid - AI-systemen moeten gedurende hun hele operationele levensduur veilig en betrouwbaar zijn, waar toepasbaar en haalbaar.
  • Transparantie bij falen - Als een AI-systeem schade veroorzaakt, moet kunnen worden nagegaan waarom.
  • Juridische transparantie - Elke betrokkenheid van een autonoom systeem bij de rechterlijke besluitvorming moet een bevredigende verklaring opleveren die door een bevoegde menselijke instantie kan worden gecontroleerd.
  • Verantwoordelijkheid - Ontwerpers en bouwers van geavanceerde AI-systemen zijn belanghebbenden bij de morele implicaties van hun gebruik, misbruik en handelingen, met een verantwoordelijkheid en een mogelijkheid om die implicaties vorm te geven.
  • Afstemming van waarden - Uiterst autonome AI-systemen moeten zo worden ontworpen dat hun doelen en gedragingen gedurende hun hele functioneren gegarandeerd in overeenstemming zijn met menselijke waarden.
  • Menselijke waarden - AI-systemen moeten zo worden ontworpen en gebruikt dat ze verenigbaar zijn met idealen van menselijke waardigheid, rechten, vrijheden, en culturele diversiteit.
  • Persoonlijke privacy - Mensen moeten het recht hebben op toegang tot, beheer van en controle over de gegevens die zij genereren, gezien de macht van AI-systemen om die gegevens te analyseren en te gebruiken.
  • Vrijheid en privacy - De toepassing van AI op persoonsgegevens mag de werkelijke of vermeende vrijheid van mensen niet op onredelijke wijze beknotten.
  • Gedeeld voordeel - AI-technologieën moeten zoveel mogelijk mensen ten goede komen en hun mogelijkheden vergroten.
  • Gedeelde welvaart - De economische welvaart die door AI wordt gecreëerd, moet breed worden gedeeld, zodat de hele mensheid ervan kan profiteren.
  • Menselijke controle - Mensen moeten kiezen hoe en of ze beslissingen delegeren aan AI-systemen, om door mensen gekozen doelen te bereiken.
  • Niet-subversie - De macht die wordt verleend door controle van zeer geavanceerde AI-systemen moet de sociale en burgerlijke processen waarvan de gezondheid van de samenleving afhankelijk is, respecteren en verbeteren, en niet ondermijnen.
  • AI wapenwedloop - Een wapenwedloop in dodelijke autonome wapens moet worden vermeden.

Langetermijnkwesties

  • Voorzichtigheid ten aanzien van capaciteiten - Vermijd, tenzij er consensus bestaat, sterke aannames over de bovengrenzen van toekomstige AI-capaciteiten.
  • Belang - Geavanceerde AI kan een ingrijpende verandering in de geschiedenis van het leven op aarde betekenen, en moet met de nodige zorg en middelen worden gepland en beheerd.
  • Risico's - Voor risico's van AI-systemen, met name catastrofale of existentiële risico's, moet een planning worden gemaakt en moeten inspanningen worden geleverd om deze risico's te beperken, in verhouding tot de verwachte impact ervan.
  • Recursieve zelfverbetering - AI-systemen die zijn ontworpen om zichzelf recursief te verbeteren of te repliceren op een manier die zou kunnen leiden tot snel toenemende kwaliteit of kwantiteit, moeten worden onderworpen aan strikte veiligheids- en controlemaatregelen.
  • Gemeenschappelijk goed - Superintelligentie mag alleen worden ontwikkeld in dienst van breed gedeelde ethische idealen, en ten bate van de hele mensheid in plaats van één staat of organisatie.