Ethische dilemma’s in tijden van AI

Op dinsdag 20 juni sloot ik aan bij de pitstop kennissessie op de HAN over Ethische dilemma’s in tijden van AI. In de lezing nam digitaal strateeg Marco Derksen ons mee in de opkomst van generatieve kunstmatige intelligentie en in de ethische aspecten van ChatGPT en soortgelijke AI-tools. In het onderwijs zijn we zoekende naar een verstandige omgang met AI. We kiezen bij het inzetten van generatieve AI-tools zoals ChatGPT bij de HAN voor een behoudende, informerende en onderwijskundige aanpak en zoeken daarnaast ruimte om gecontroleerd te experimenteren. Ik schreef in mijn vorige blog Technologie, Filosofie en wereldburgerschap al over het belang van ethiek bij het maken van de juiste keuzes. Marco stond deze middag in zijn lezing specifiek stil bij de ethische dilemma’s, omdat zoals hij zelf zegt in zijn blog “juist de genuanceerde discussie over deze ethische dilemma’s lijkt ondergesneeuwd te worden door enerzijdse de stortvloed aan nieuwe mogelijkheden van AI en anderzijds de waarschuwingen voor existentiele risico’s van AI. Voor mij reden om in mijn bijdrage aan de HAN Pitstop aandacht te vragen voor de ethische dilemma’s in tijden van AI.”

Begin jaren 90 studeerde ik bedrijfskundige informatica en hoorde ik voor het eerst over kennis- en expertsystemen. Ik vond dit in die tijd een ingewikkeld concept. De toenmalige expertsystemen waren gebaseerd op de cognitiewetenschap uit de jaren zeventig, oftewel volgens het universele redeneermechanisme van IF-THEN-ELSE. Wat hierin miste was dat een echte expert blijft leren door interactie met zijn omgeving en deze expertsystemen waren zo niet ontworpen. De systemen moesten verbeterd worden door de kennis van het expertsysteem continu aan te passen aan de ervaring van het systeem (hier wordt parameters en kansen toegevoegd, waardoor je onderscheid krijgt in relevantie) en het voeden (trainen) van het systeem met casuistiek uit de praktijk.

Marco Derksen betoogt dat AI de systeemtechnologie is die onze samenleving (net als de stoommachine, de verbrandingsmotor en de computer) fundamenteel gaat veranderen. We spreken hier over de digitale transformatie van de samenleving: hierin is AI de systeem technologie die zorgt voor verandering (andere wetten, andere vaardigheden studenten etc). En bij veranderingen hoort weerstand en verzet. Dit zien we ook in de gesprekken over de inzet van AI in het onderwijs. Ik bedacht me laatst dat de lockdowns van twee jaar geleden misschien wel de generale repetitie zijn geweest voor de komst van generatieve AI zoals ChatGPT. Doordat onze studenten niet naar school konden komen vanwege de lockdown moesten we onderwijs en toetsing online organiseren. Waar een aantal opleidingen worstelden met deze aanpassingen, met name bij de toetsing, zag ik ook opleidingen waar de aanpassing redelijk soepel ging. Deze opleidingen bleken al langer met vormen van toetsen te werken die ook in een lockdown setting en op afstand heel goed werkten: meer formatief handelen en evalueren en meer focus op het proces dan op het eindresultaat (en het inzetten van vormen van feedback). Ik verwacht dat dit dezelfde opleidingen zijn die niet in paniek raken van de komst van ChatGPT.

Terug naar de jaren ’90 en de lezing van Marco: Begin jaren 90 ontstonden de neurale netwerken. De grote doorbraak in deze ontwikkeling is dat deze neurale netwerken groeiden door steeds meer data te gebruiken om de systemen te trainen. Een voorbeeld is het large language model (LLM). De trainingsdata gaan in de neuraal netwerken en de machine zoekt naar relaties tussen woorden. In de afgelopen 10 jaar zijn de foundation modellen steeds groter geworden.  Doordat deze systemen steeds groter worden ontstaan zogenaamde emergente eigenschappen. De machine gaat dingen doen waar de machine niet op getraind is en is daarmee niet meer voorspelbaar. Dit is een leuk artikel over emergentie ofwel ‘meer is anders’.

In de rest van de lezing staat Marco stil bij een aantal ethische dilemma’s in relatie tot AI. Ik licht er een paar uit.

  1. De data: AI wordt getraind met data die beschikbaar zijn op het Internet. Hier zitten een aantal interessante aspecten aan, om te beginnen dat we niet weten waar deze data vandaan komen (veel komt uit Amerika met bijbehorende waarden en normen, die zorgt voor ‘bias’) en wie eigenaar is (hoe zit het met auteursrechten). Hierbij hoort ook de zogenaamde ‘dead internet theory’: 90% content op internet door ai gegenereerd en daarmee wordt AI dan weergetraind etc. Zo bewegen we ons langzaam naar het gemiddelde en is er weinig ruimte voor creativiteit en vernieuwing.
  2. Kosten: het trainen van ChatGPT kost heel veel geld, per dag 700000 dollar (chips, machines en energie), wat is de meerwaarde?
  3. Impact op beroepen: Wat doet AI met toekomst van werk? Er komen steeds meer ‘copilots’ gebaseerd op AI die mensen ondersteunen bij het gebruik van ICT-tools, maar bv. ook coding assistants voor programmeurs. De verwachting lijkt dat er weliswaar banen zullen verdwijnen, maar dat er ook weer nieuwe ontstaan, zoals bv. clickworkers (het is niet AI die banen vervangt maar het is de mens die AI gebruikt die zorgt dat banen veranderen). Dit stelt wel eisen aan de wendbaarheid van mensen (en dus aan onze studenten).
  4. Wie bepaalt?: de grote vraag is wie stuurt op de ontwikkeling van AI. Nu zijn dat blijkbaar 9 bedrijven (zie plaatje). Het wordt tijd dat we zelf digitaal wakker worden.
  5. De prijs van AI: AI heeft een prijs, het levert veel op, maar niet voor iedereen. En dat terwijl we AI ook heel goed in zouden kunnen zetten voor het verbeteren van de toegankelijkheid van onderwijs, zoals de Khan academy doet met Khanmigo: ‘Khan Academy’s AI-powered guide. Tutor for learners. Assistant for teachers‘.

Wet- en regelgeving kan ons helpen bij deze ethische dilemma’s. De AI wet komt eind van het jaar en er komt ook een Digital Act aan. Europa loopt hierin voorop ten opzichte van Amerika en China en zou weleens bepalend kunnen worden. In de wetgeving zullen bv. een aantal AI toepassingen niet toegestaan worden (unacceptable, zoals gezichtsherkenning in het openbare domein).

En ondertussen is de vraag hoe we met deze nieuwe technologie omgaan en hoe we ervoor kunnen zorgen dat we transformeren naar een mensgerichte AI-toekomst. Marco verwijst o.a. naar de methodiek van begeleidingsethiek.nl die helpt bij het voeren van het juiste gesprek. Ook het onderwijs heeft hier een belangrijke rol in. We moeten het gebruik van AI niet verbieden, maar beginnen met ethische vraagstukken en het bewustzijn in onderwijs brengen.

AI, ChatGPT en aanverwante AI-tools zijn onderdeel van onze samenleving en zullen de komende tijd alleen maar groeien in omvang en potentie. Het verbieden van deze tools in het onderwijs is onverstandig (en ook niet realistisch). Het is de taak van het onderwijs om onze studenten vertrouwd te maken met wat er nu op digitaal en technologisch gebied voor handen is en nieuwsgierig te maken naar toekomstige ontwikkelingen en mogelijkheden zodat zij een bijdrage kunnen leveren aan het benutten van kansen en tevens doorzien welke risico’s, bijvoorbeeld op het gebied van wet- en regelgeving of ethische dilemma’s, er zijn. Vanuit de HAN willen we onze docenten in staat stellen om AI op een doordachte manier in het onderwijs in te zetten, zodat onze studenten zich kunnen ontwikkelen tot digi- en datavaardige professionals.

Deze tekst verscheen eerder op de HANICTO blog


Posted

by

Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *