Gevaren van AI

Kunstmatige Intelligentie/Ethiek/Gevaren van AI

Creative Commons License
This work is licensed under a
Creative Commons Attribution-NonCommercial-ShareAlike 4.0
International License
.

Skynet, HAL 9000, V.I.K.I., the Matrix, misschien ken je er zelf ook nog wel een paar: kwaadaardige kunstmatige intelligentie en robots. Het is al tijden een populair thema in science fiction boeken en films. Natuurlijk zijn de situaties in deze films allemaal verzonnen, maar er zijn wetenschappers die echt vrezen dat denkende computers zich ooit tegen de mensheid zullen keren. Allereerst kun je je afvragen of computers wel intelligenter kunnen worden dan mensen, of dat computers überhaupt intelligent kunnen zijn (daarover later meer). Toch blijft het een interessant onderwerp van debat en houden mensen zich ermee bezig. Het moment dat computers slimmer worden dan de mens noemt men de technologische singulariteit.

Is het eigenlijk wel logisch om bang te zijn voor super slimme computers? Misschien dat hyperintelligente computers in hun wijsheid wel juist voor vrede en harmonie zorgen. We weten het niet en misschien komen we er nooit achter.

Maar ook minder intelligente vormen van AI zouden kunnen worden ingezet om de mensheid te benadelen. Wat zal een AI robot besluiten als je deze slechts één taak geeft en wel de volgende: zorg dat er geen overbodig CO₂ wordt uitgestoten? De robot zou kunnen concluderen dat de gehele mensheid moet worden uitgeroeid.


Misbruik van computers

Wat in elk geval wél een realistisch puntje van zorg is, is misbruik van kunstmatige intelligentie. Eigenlijk gebeurt dit nu al best vaak. Denk bijvoorbeeld aan deep fakes. Zo heeft iemand een audio deep fake ingezet om een bank voor $243.000 op te lichten. Het is niet zozeer het computerprogramma zelf, maar de mens erachter die het gevaar vormt. Een ander voorbeeld van misbruik van kunstmatige intelligentie is misschien wel het gebruik van drones. Door drones volautomatisch te laten vliegen en bommen te laten werpen, kun je een smerige manier van oorlogvoering krijgen. Kunstmatige intelligentie kan in de verkeerde handen als een extreem gevaarlijk wapen werken, iets dat we niet moeten willen!


Computers die foutjes maken

“Computers maken geen fouten, het zijn mensen die computers programmeren die fouten maken.” Je kent deze uitspraak misschien wel, en grotendeels klopt hij ook. Computerprogramma’s doen altijd precies waarvoor ze geprogrammeerd zijn. Maar met kunstmatige intelligentie ligt dit toch net iets anders. Bij kunstmatige intelligentie worden de acties van de software niet van te voren geprogrammeerd, maar komt de software tot acties die het zichzelf aanleert. In dit leerproces kunnen ongewenste fouten optreden. Het gevaar is hier dat mensen te veel gaan vertrouwen op kunstmatige intelligentie.

Een leuke anekdote is een groep aan AI-robots op wieltjes die elkaar zo min mogelijk moeten proberen te raken in een speelveld. De robots leren op een gegeven moment dat stilstaan de beste oplossing is. Geweldig bedacht maar niet wat de ontwikkelaars in gedachten hadden. Een ander verrassend resultaat was de studie die OpenAI heeft gedaan naar AI in een "hide and seek" game wereld. Na een tijd kwam de AI achter bugs in de software van de geprogrammeerde wereld waardoor ze verder en hoger konden komen dan bedoeld.

In dit artikel over een dodelijk ongeval door een ‘zelfrijdende’ auto: In het artikel staat een goed voorbeeld van een foutje van kunstmatige intelligentie met een treurig gevolg. Nu gaat het in dit voorbeeld over één slachtoffer, maar wat te denken als de straten straks overspoeld worden met zelfrijdende auto’s? Zelfs al zou een zelfrijdende auto minder fouten maken dan een mens dan rest er de vervelende vraag na een dergelijk ongeluk: wie is er verantwoordelijk voor de schade bij een ongeval? Is dat de eigenaar van de kunstmatig intelligente auto? Of is dat de programmeur van de software in de auto? Of misschien de kunstmatige intelligentie zelf?

Vragen
  1. Denk jij dat de technologische singulariteit realistisch is? Waarom wel/niet? antwoord
    • Dit hang ervan af hoe je tegen intelligentie en tegen bewustzijn aankijkt. Als mensen eigenlijk ook een soort machines zijn, dan kunnen robots net zo goed bewustzijn krijgen. Maar als je voor bewustzijn iets nodig hebt dat niet te programmeren is (een ziel/geest of iets dergelijks), dan niet.
  2. Stel dat computers in de toekomst inderdaad slimmer worden dan mensen. Denk jij dat dit dan goed of slecht voor de mensheid uitpakt? Leg uit waarom je dit denkt. antwoord
    • Dit ligt misschien aan de doelen die deze computers dan hebben. Als het doel is om te domineren, dan kan het slecht uitpakken. Als het doel is om in vrede voort te bestaan, dan zou het gunstig uit kunnen pakken.
  3. Welk soort gevaar van kunstmatige intelligentie vind jij het meest zorgelijk? antwoord
    • Momenteel is de meest reële zorg dat mensen blind gaan vertrouwen op kunstmatige intelligentie. Dit ging bijvoorbeeld fout bij de zelfrijdende auto. Helaas wordt kunstmatige intelligentie ook gebruikt bij de ontwikkeling van wapens. Dit is ook een zorgelijke ontwikkeling.
  4. Wat zouden we kunnen doen om misbruik van kunstmatige intelligentie te voorkomen? antwoord
    • Helemaal voorkomen is misschien niet mogelijk. Misbruik met wapens zou wellicht wel beperkt kunnen worden door het opstellen van verdragen. Landen die deze verdragen ondertekenen nemen dan afstand van het gebruik van kunstmatige intelligentie met wapens.

Robots reguleren

We hebben net stilgestaan bij mogelijke gevaren uit de hoek van kunstmatige intelligentie. Als slimme computers echt deel uit gaan maken van onze samenleving, dan zullen er dingen moeten veranderen. Er zullen nieuwe afspraken gemaakt moeten worden. Bijvoorbeeld over wie wanneer verantwoordelijk is bij een ongeluk met een robot. Of wat een slimme computer wel of niet mag doen.

Er wordt hierbij vaak verwezen naar Isaac Asimov en zijn drie wetten van de robotica. Hoewel Asimov deze wetten in een science fiction boek (*I, Robot*) publiceerde, is er vaak serieus over nagedacht. De wetten zijn bedoeld om mensen te beschermen tegen intelligente computers. Hieronder staan ze:

Wetten van Asimov
  1. Een robot mag een mens geen kwaad doen of door niet te handelen toestaan dat een mens kwaad gedaan wordt.
  2. Een robot moet de bevelen van mensen opvolgen, behalve als deze in strijd zijn met de eerste wet.
  3. Een robot moet zijn eigen bestaan beschermen, zolang dit niet in conflict is met de eerste en de tweede wet.

Asimov voegde later een ‘nulde’ wet toe die in feite gelijk is aan de eerste wet, maar waarin “mens” is vervangen door “mensheid”.


Tekortkomingen van Asimovs wetten

Als er echt zoiets komt als de technologische singulariteit, dan is het goed om alvast na te denken over hoe hiermee om te gaan. De bovengenoemde wetten zijn dan aardig om mee te beginnen. Er zijn echter ook tekortkomingen: problemen waar deze wetten geen rekening mee houden.

Als een robot bijvoorbeeld een eigen definitie van ‘kwaad doen’ verzint, kan de eerste wet een hele andere betekenis krijgen. Of misschien dat sommige robots niet eens weten of iets goed of kwaad is en daarmee de wetten overtreden. En wanneer is eigenlijk iets een robot? Geldt een mens met mechanische lichaamsdelen (zoals een robotarm) ook als een robot?

Vragen
  1. Wat vind jij van de wetten van Asimov? Zou je iets veranderen, toevoegen of weglaten? antwoord
    • Een probleem met deze wetten is dat er ruimte voor een eigen interpretatie is. Je kunt nog zelf invullen wat ‘kwaad doen’ precies betekent. Je zou wet 1 specifieker kunnen maken door op te sommen wat er wordt verstaan onder kwaad. Bijvoorbeeld: doden, stelen, kwetsen, enzovoorts.
  2. Stel dat robots net zo slim worden als mensen. Vind je deze wetten dan nog wel eerlijk? antwoord
    • Misschien zijn ze wel eerlijk. Mensen hebben de robots nu eenmaal gemaakt en hebben daarom het recht om wetten en regels in te stellen.
      Of misschien zijn ze niet eerlijk. Het is oneerlijk als een intelligente creatie de slaaf is van een andere intelligente creatie.

Rechten voor robots

We hebben het zojuist over regels gehad waaraan kunstmatige intelligentie en robots zich zouden moeten houden. Je kunt je vast goed voorstellen dat het belangrijk is dat er zulke regels komen. Wat misschien minder voor de hand ligt, is dat robots misschien ook wel rechten zouden moeten krijgen. Net zoals er voor dieren ook dierenrechten zijn. Zou het niet raar zijn als er straks ultra-intelligente robots rondlopen met minder rechten dan een kat?

Denk eens na of discussieer eens met een klasgenoot over de volgende vragen.

Vragen
  1. Mag je zomaar alles wat je wilt doen met een robot? Maakt het uit hoe slim de robot is bij deze vraag? antwoord
    • Je kunt beargumenteren dat een robot niet meer als product mag worden gebruikt wanneer deze bewustzijn heeft. Net zoals slavernij verkeerd is, terwijl het houden van bijvoorbeeld werkpaarden wel geaccepteerd wordt. Een mens heeft een hoge mate van bewustzijn, een paard niet.
      Je kunt ook stellen dat een robot een machine blijft. Een machine is hoe dan ook een product, net zoals een tv, auto of balpen dat is. Je zou daarom volledig moeten kunnen beschikken over een robot.
  2. Als robots rechten zouden hebben, wat zouden deze dan volgens jou moeten zijn? antwoord
    • Denk aan de rechten van de mens en de rechten van het dier. Je zou de rechten voor robots aan deze kunnen ontlenen. Misschien een combinatie van mensen- en dierenrechten?
  3. Zou een robot ooit minister-president mogen worden? antwoord
    • Misschien ondenkbaar voor nu, maar wie weet wat de toekomst brengt. Een zwarte president was ooit ook ondenkbaar. Net als een vrouw als regeringsleider. Normen en waarden veranderen door de tijd heen. Wellicht kijken we in de toekomst anders tegen robots aan en is het vanzelfsprekend dat ze dezelfde posities kunnen bekleden als mensen.

Denk eens na over het volgende verhaal. Probeer dit zonder vooroordelen te lezen.

Je zit in een les informatica. Het is buiten mooi weer. De docent is bezig om iets uit te leggen over computerarchitectuur en je gedachten dwalen af, naar buiten. Langzaam maar zeker dagdroom je weg terwijl je uit het raam staart. Plotseling word je uit je dromerigheid getrokken als de docent roept: “Hey daar, wel op blijven letten.” Je doet meteen wat hij zegt. Natuurlijk, hij is de docent en jij de leerling, dus luister je.

Je bent aandachtig aan het luisteren, als er ineens iets heel vreemds gebeurt. De docent valt midden in een zin stil en blijft compleet bewegingloos staan. De hele klas is in rep en roer en niemand merkt op dat de conciërge ondertussen het lokaal is binnengewandeld. Hij loopt rustig naar de nog altijd bewegingloze docent en draait wat aan zijn hoofd. Tot ieders verbazing draait hij de bovenkant van het hoofd van de docent als een soort deksel open. In het hoofd zitten allerlei radertjes en schroefjes: je docent blijkt een robot te zijn!

De conciërge sleutelt wat en draait het hoofd vervolgens weer dicht. Langzaam komt de docent weer op gang en gaat verder met zijn verhaal alsof er niets gebeurd is. De conciërge klopt de docent vriendelijk op de schouder en loopt rustig het lokaal uit. Iedereen is stomverbaasd.

Het mooie van filosofie is dat je overal over kunt en mag denken, hoe bizar iets ook is. Probeer bovenstaand verhaal je eens voor te stellen. Beantwoord daarna de volgende vragen.

Vragen
  1. Is er iets veranderd in hoe je naar je docent kijkt, nu je weet dat hij een robot is? Wat is er veranderd en hoe komt dat? antwoord
    • Deze vragen zijn natuurlijk moeilijk, omdat de situatie ver van je bed ligt. Ze doen een beroep op je fantasie. Je zult waarschijnlijk wel anders tegen de docent aankijken. De docent is niet wat je dacht dat hij was en dat is schrikken.
  2. Zou je nog steeds naar de docent luisteren? Waarom wel/niet? antwoord
    • Misschien heb je moeite met het idee dat een robot jou vertelt wat je moet doen. Toch is deze robot kennelijk door de schoolleiding aangesteld als jouw docent. Als je niet luistert, dan krijg je waarschijnlijk straf.
  3. Vind je dat deze robot-docent nog steeds dezelfde (mensen)rechten heeft? antwoord
    • We hebben het al eens over robotrechten gehad. Misschien vind je dat de robot-docent nu ook robotrechten verdient. Of verandert er niets? Per slot van rekening gedraagt de docent zich nog zoals hij eerder ook deed.

De engheidsmatrix

Wanneer techneuten of social-media influencers praten over AI, dan hebben ze het vaak over de ‘coole’, leuke en nuttige toepassingen daarvan. Vaak gaat het dan om de razend knappe nieuwe technieken die worden gebruikt of het allerlaatste, supersnelle neural network algoritme. Maar wanneer je luistert naar sommige andere mensen dan noemen die AI juist vaak ‘eng’.

En eigenlijk hebben ze allemaal een beetje gelijk. Want AI kan gaaf en leuk zijn, maar het kan ook eng en fout zijn. In dit deel van de lessenserie ga je zélf aan de gang om te ontdekken wat voorbeelden zijn van goede, nuttige en leuke AI-toepassingen, en wat voorbeelden zijn van ‘enge AI’.

Maar waarom vinden mensen de ene AI-toepassing nou ontzettend nuttig en ethisch verantwoord, en een andere juist super eng en totaal overbodig? In de paragraaf In de praktijk heb je een aantal voorbeelden gekregen waarin je hebt kennisgemaakt met de ethische aspecten van AI. Maar nu is het tijd te gaan bedenken wat jij zélf vindt van AI.

Een handige manier om zélf te beginnen met kritisch nadenken over AI is het maken van een engheidsmatrix. In zo'n matrix plot je verschillende AI-toepassingen om te ontdekken wat nou duidelijke voorbeelden van goede, nuttige en leuke AI-toepassingen zijn, en wat typisch voorbeelden zijn van ‘enge AI’. Start met het tekenen van een matrix, zoals het voorbeeld hieronder; het is handig om de matrix bijvoorbeeld groot op een muur of op een whiteboard te tekenen, en een geeltje te gebruiken om een AI-toepassing te beschrijven en in de matrix te plaatsen, zodat je er met anderen over kunt discussiëren:


Groepsopdracht
  1. Probeer eens de AI-toepassing Quick, Draw! van Google in de matrix te plaatsen: dat is echt nog niet zo gemakkelijk. Hoe gaat Google met je gegevens om? Ga jij de Privacy Policy van Google doorspitten voordat je iets tekent? En hoe zit het met het nut van deze AI-toepassing?
  2. Geef op het geeltje ook aan hoe je je keuzes maakt. Welke criteria gebruik je om Quick, Draw! op de horizontale as te plaatsen? Wanneer noem jij een AI-systeem eng, en wanneer vind jij een systeem ethisch verantwoord? En welke criteria gebruik je om een AI-toepasssing op de verticale as te plaatsen? Hoe bepaal jij het nut van een AI-systeem? Onderbouw de keuzes die je maakt.
  3. In de paragraaf In de praktijk hebben wij bepaalde uitspraken bij de voorbeelden gedaan. Plaats jouw mening over deze voorbeelden in de matrix.
  4. Vergelijk jouw keuzes met die van de andere leerlingen en discussieer over de uitkomsten. Waarin verschillen jullie uitkomsten en kun je aangeven waarom die verschillen er zijn? En waar zijn jullie het eens?

Wil je meer weten over de engheidsmatrix en hoe je die kunt gebruiken om het nut en de ethische aspecten van een AI-toepassing in kaart te brengen? In het keuzedeel Ethiek en AI gaan we verder op de matrix in.