De AI-revolutie: Onvoorstelbaar ontwrichtend of van onschatbare waarde?
Niemand raakt erover uitgepraat: kunstmatige intelligentie. Wat betekenen de ontwikkelingen van AI-technologieën voor ons? Worden belangrijke keuzes straks gemaakt door AI in plaats van door mensen? Eén ding is duidelijk: we bevinden ons midden in een revolutie. SP-Kamerlid Renske Leijten: ‘We willen niet dat Big Tech ons stuurt.’
Tekst: Sharron Winkelhorst
De wereld van kunstmatige intelligentie (AI) en de ontwikkeling van artificial general intelligence (AGI) gaat razendsnel. Doembeelden en hemelse vergezichten wisselen elkaar af in de media. Ondertussen zijn er prominente AI-onderzoekers en -ontwikkelaars die oproepen tot een tijdelijke pauze in de verdere ontwikkeling van AI. Want, waarschuwen zij, we kunnen de controle over AI volledig verliezen. Het debat over de toekomst van AI en hoe wij ons daartoe verhouden is dus springlevend.
Wordt kunstmatige intelligentie straks ingezet om ons leven makkelijker te maken en ons werk efficiënter? Maar wat betekent het als AI op termijn misschien zichzelf kan gaan programmeren? Moeten we hier serieus over nadenken?
Realistisch of niet, deze scenario’s roepen belangrijke vragen op over macht, controle en verantwoordelijkheid. Daarom is dit het moment om het maatschappelijk debat aan te gaan. De vraag rijst dan ook wie de verantwoordelijkheid moet dragen voor de regulering van AI. Met de technologische race tussen bedrijven en perverse prikkels die niet door de vrije markt worden aangepakt, wordt gesuggereerd dat overheden of een centrale autoriteit zoals de EU nodig zijn om toezicht te houden.
Naast deze zorgen over de risico’s zijn er ook andere aspecten waar maatschappelijke en politieke antwoorden op moeten worden bedacht. Denk bijvoorbeeld aan de opkomst van deepfakes, kwesties rond auteursrechten, banenverlies en mogelijke vooroordelen en discriminatie van AI-systemen. Renske Leijten houdt zich voor de SP bezig met deze ontwikkelingen en beantwoordt enkele prangende vragen.
Er zijn zorgen dat de ontwikkeling van AI uit de hand aan het lopen is, mede omdat het in intelligentie toeneemt en straks zichzelf kan programmeren. Is dit iets waar we ons druk om moeten maken?
‘Mensen zijn bang voor het onbekende. Bepaalde theorieën worden gemaakt door mensen die totaal niet weten waar ze het over hebben. Ze zijn bang voor het vreemde omdat het niet beheersbaar is. Vroeger waren mensen ook ontzettend bang voor andere technologieën. Toen hebben we geleerd die technologie te gebruiken om ons leven beter te maken, en zo moeten we er volgens mij nu ook naar kijken. Toen de eerste auto’s op de weg kwamen, was het ontzettend gevaarlijk. Er waren veel dodelijke ongevallen en er waren geen verkeersregels. Het was ook een revolutie, en toen hebben we verkeersregels gemaakt, snelheidsregels ingesteld, auto’s gereguleerd, en dat moeten we nu ook snel doen. Volgens mij moeten we hier pragmatisch over denken.
Denk ook hieraan: negativiteit verkoopt beter dan positiviteit. Dat zie je ook bij de discussie over AI-algoritmes. Koppen in de krant die de lezer een bepaalde kant op duwen. Ik zou graag zien dat de SP een rol speelt in het morele debat hierover. Dus in het stimuleren van het publieke debat over de ethische voorwaarden voor de toepassing van AI. We moeten niet bang zijn, zeker niet naïef, maar wel een positieve rol spelen in het gesprek over regels.’
Is de angst over AI dan volledig onterecht? Oftewel, is de AI-ontwikkeling beheersbaar?
‘Nou, dat weet ik niet. Ik denk dat we het streng moeten reguleren en regels moeten opstellen. Dat is ook wat AI-ontwikkelaars zeggen. Je kunt technologische vooruitgang nooit stilleggen, maar je kunt wel regels vaststellen. Kijk, Italië heeft bijvoorbeeld gezegd dat ChatGPT moest stoppen binnen zijn grenzen. Dat land wilde eerst duidelijkheid hebben over privacywaarborgen, gegevensopslag en gegevensgebruik. En toen het die waarborgen kregen, werd het weer toegestaan. Een overheid kan dat dus doen. Bovendien zijn er allerlei technologieën in onze samenleving waarvan we zeggen dat we die niet overal op toepassen. Maar als het gaat om de digitale wereld, hebben we daar nauwelijks regels voor. Dat is het grote probleem. We praten nu over zelflerende algoritmes, maar wat gebeurt er bijvoorbeeld met gezichtsherkenning op straat? Hoe wordt dat gebruikt? En wat dacht je van de slimme energiemeter thuis? Of digitaal geld en digitale identificatie? Voor al deze zaken geldt: we moeten niet bang gemaakt worden en het gesprek niet uit de weg gaan om regels op te stellen.’
Hoe gaan we om met technologische innovatie die aan de andere kant van de oceaan ontwikkeld wordt, maar via het internet ook een grote impact op ons heeft?
‘Wij bepalen wat hier wel of niet binnenkomt, vergelijkbaar met bepaalde kankermedicijnen die wel op de markt zijn in Nederland en niet in Frankrijk, en vice versa. We kunnen zelf de grenzen bepalen. Zoals Italië deed met ChatGPT. Ik denk dat het verstandig is om een vergelijking te maken tussen digitale ontwikkelingen zoals AI en geneesmiddelen. AI is overal aanwezig, bijvoorbeeld bij stoplichten, in algoritmes op sociale media en in de systemen van de belastingdienst. Wanneer het een toepassing wordt om gedrag te beïnvloeden, moeten we voorzichtig zijn en kijken naar toelatingscriteria. Want alle positieve aspecten hebben ook een negatieve keerzijde, net als medicijnen. Als je een medicijn gebruikt wanneer je ziek bent, word je beter, maar als je niet ziek bent, word je er slechter van. Op dezelfde manier kunnen we kijken naar AI-toepassingen en beoordelen of ze schadelijk zijn voor kinderen, sociale ontwikkeling, enzovoort. Het argument dat beperkte toelating in Nederland of Europa niet mogelijk is omdat het wereldwijd toegankelijk is via internet, moeten we loslaten.
Het grote probleem met technologische ontwikkeling en de digitale wereld is dat de regulering achterblijft bij de snelle veranderingen. Op dit moment gaat de discussie over regulering de verkeerde kant op, waarbij Europa zich alleen richt op markttoegang: wanneer mag iets wel of niet op de markt komen. We zouden een stap verder moeten gaan en ons afvragen: wat mag er op de markt komen? Dit kunnen we doen door een toelatingssysteem te creëren. Bij Facebook hebben we gezien dat er verschillende zaken werden ingezet, zoals data-analyse, wat een negatieve rol speelde in het Brexit-referendum en extreemrechts aanzienlijk heeft bevorderd. Nu kunnen we zeggen: dat mag niet meer! En als ze het toch doen, krijgen ze hoge boetes of worden ze van de markt gehaald.’
Big Tech-ontwikkelaars hebben aan de bel getrokken omdat ze willen pauzeren met ontwikkelen, maar ‘gedwongen’ worden om door te gaan door hun aandeelhouders. Tegelijkertijd durven ze niet op te stappen omdat de bedrijven niet zullen stoppen en ze bang zijn om controle te verliezen als ze buitenstaander worden. Wat moet hier het antwoord op zijn?
‘Niemand kan ‘gedwongen’ worden om iets verder te ontwikkelen, dat vind ik echt een zwaktebod. Ik ken hun pleidooi. Ik heb hun brief met hun noodkreet ook gezien. We hebben daar Kamervragen over gesteld, maar ik vind het een slecht argument om te zeggen ‘wij worden gedwongen door het kapitalistische systeem’. Het kapitalisme is een klotesysteem, maar dan is er nog altijd zoiets als morele intrinsieke vrijheid om te zeggen “ho, stop!”. Als ze met elkaar die brief kunnen schrijven en een appèl kunnen doen op overheden dat dit gestopt moet worden, kunnen ze ook gewoon stoppen. Zeggen: “Als ik het niet ontwikkel, ontwikkelt een ander het”. Dat is een vals argument, dat is een beetje het argument van de burgemeester in oorlogstijd, “Anders doet een ander het en die is misschien erger”.
Als antwoord hierop denk ik dat het heel goed is als we blijven uitleggen wat AI is: uiteindelijk is AI door mensen geleerd en door mensen geïnstrueerd. Dus zolang je dat blijft terug redeneren, kun je ook blijven uitleggen dat mensen dus kunnen ingrijpen. En daarmee kun je mensen dus geruststellen.’
Dit haakt in op een andere discussie. Als AI door mensen is geïnstrueerd, betekent dit dan ook dat degenen die de technologie ontwikkelen representatief moeten zijn voor de gehele samenleving? Dus dat de data input niet overwegend van, bijvoorbeeld, witte, rijke mannen afkomstig is?
‘Dit is een van de redenen waarom we niet willen dat AI ons profileert. Afgezien van een kleine groep mensen die het echt wisten, was tien jaar geleden de algemene opvatting in de samenleving dat alles wat een computer voor jou doet neutraler is en dat een rekenmachine beter kan rekenen dan een mens. Maar het is zo dat een rekenmachine vooral sneller kan rekenen dan een mens, niet beter. Ik denk dat we altijd weer naar dat punt terug moeten om dat te realiseren. Het is zo dat degene die de geschiedenis schrijft de pen in handen heeft, dat is net zo als ik een commissievoorzitter zie met een bepaalde politieke kleur en die houdt de pen vast, dan weet ik het gaat een bepaalde kant op. Dus natuurlijk moet je kijken naar wie het ontwikkelt. Maar we moeten niet vervolgens zeggen: dus daarom is het fout. Want dan val je zelf in de valkuil van de profilering. Dan beoordeel je mensen op basis van hun eigenschappen. Als we profileren, dan weten we dat het kan leiden tot zoiets als het toeslagenschandaal. Het toeslagenschandaal kwam niet alleen door profilering, maar dat heeft de boel wel heel erg versneld en een grotere groep slachtoffers gemaakt.
Wat ik altijd in debatten heb gezegd, is dat we niet willen dat Big Tech ons stuurt, met zijn profilering en zijn algoritmes, maar we willen ook geen overheden hebben die de technologieën van Big Tech kopiëren in hun systemen. Dat is gebeurd. Dus we willen een andere morele standaard hebben bij hoe we onze technologieën inzetten. De SP stelt al tientallen jaren voor om, voordat nieuwe ontwikkelingen worden toegelaten op de markt of in de overheid, ze te laten beoordelen door een ethische commissie.’
Wat kunnen wij als SP nog meer doen in deze AI-discussie?
‘We moeten standpunten innemen en een maatschappelijke discussie op gang brengen. De SP is natuurlijk niet alleen bezig met moties en budgetten. Wij kunnen een rol spelen in de maatschappelijke tendens. De discussie wordt gedomineerd door mensen die zeggen: “Jullie mogen niet meedoen aan de discussie, want je bent geen techneut.” Dat zeggen Europarlementariërs die zich laten beïnvloeden door Big Tech-lobbyisten. En dat is een gevaarlijke tendens, want dan laat je de democratie, die uiteindelijk de sleutel is, buiten spel. Het alternatief is ervoor zorgen dat iedereen aan het debat kan deelnemen. Dat iedereen gelijke toegang heeft tot de kennis en de argumentenkaders kent. Om dit te kunnen, moet je goed kunnen argumenteren, maar mensen moeten ook niet bang worden gemaakt, want dan werkt het proces niet.
We moeten iedereen hierbij betrekken. Niet: “Ik weet niet precies hoe het werkt, dus ik spreek me er niet over uit”. Je kunt wel een moreel standpunt innemen. Je weet misschien niet precies hoe een televisieprogramma wordt gemaakt, maar je kunt wel zeggen of het wenselijk is dat kinderen ernaar kijken, ja of nee. Doe dat ook met technologie. Dat is een rol die de SP kan spelen, mensen het zelfvertrouwen geven waardoor ze wel hun mening laten horen bij een enorme ontwikkeling als deze.’
Online echokamers
Onderzoekers, zoals Benjamin Ho in zijn boek Why trust matters, tonen aan dat met de toename van digitale informatiestromen en de opkomst van sociale media er een toename in polarisatie en verdeeldheid is in de samenleving. De onderzoekers zien onder andere een verklaring in de werking van sociale media-algoritmes op basis van AI. Die zijn namelijk ontworpen om gebruikers betrokken te houden bij hun content. De algoritmes zijn geprogrammeerd om alleen informatie te tonen die aansluit op de voorkeuren, gedrag en interesses van de gebruikers. Hoe langer en vaker mensen actief betrokken zijn op sociale media-platforms, hoe meer geld die platforms namelijk kunnen verdienen aan advertenties. Bots krijgen op deze manier data die ze in staat stelt mensen te manipuleren.
Door het creëren van een gepersonaliseerde informatieomgeving waarin gebruikers voornamelijk worden blootgesteld aan informatie die hun bestaande overtuigingen en opvattingen bevestigt, kunnen mensen in echokamers raken waarin afwijkende meningen en perspectieven ondervertegenwoordigd zijn. Ook wordt het aangemoedigd om content steeds sensationeler te maken, of zelfs te verzinnen (zoals fake news), want dit levert het meeste betrokkenheid op, en dus winst. Het gevaar daarvan is een toenemend wantrouwen in traditionele instituties, zoals de oude media en overheid, en ook een wantrouwen in de werking van de democratie.