Kansen en gevaren van artificiële intelligentie

Artificiële intelligentie (AI) kan een positief effect hebben op onze samenleving. Maar alleen als het veilig, transparant en verantwoord is. Hoe kunnen we AI op een goede manier verder ontwikkelen? We vroegen het Natasha Alechina, hoogleraar Safe and Responsible AI.

De ontwikkelingen van AI gaan razendsnel. Wat zijn de grootste doorbraken dankzij AI de afgelopen periode en waarom? 

“Sinds tien jaar zijn er grote hoeveelheden data beschikbaar, zodat AI beelden kan herkennen. Ook zijn computers sneller en krachtiger geworden. In de gezondheidszorg wordt AI op deze manier gebruikt om afwijkingen op foto’s of scans van patiënten te herkennen. Een andere doorbraak is dat AI-systemen beelden, tekst en muziek kunnen maken. Sinds 2022 kan iedereen ChatGTP gebruiken, waardoor AI heel erg in de belangstelling staat.” 

Gaan de ontwikkelingen van AI té snel? 

“Ik denk niet dat het te snel gaat maar dat AI te snel wordt toegepast. Men verwacht sommige dingen zonder mensen te kunnen doen maar dat is niet waar. Zeker niet voor de regering, de gemeente of als er mensenlevens op het spel staan. We moeten goede wetten en regels hebben, zodat AI geen copyright schendt. De taalrobot ChatGPT is gebaseerd op teksten die anderen hebben geschreven! Dat was ook een reden waarom schrijvers van tv-scripts in Amerika afgelopen najaar staakten. Zij willen een betere bescherming tegen artificiële intelligentie.” 

Welke kansen van AI moeten we zeker gaan benutten en waarom? 

“Het kan helpen in de geneeskunde. Het is voor mensen heel intensief om lang en geconcentreerd radiologische beelden te bekijken. Hier kan AI een eerste selectie maken maar mensen moeten beelden die afwijken, vervolgens zelf beoordelen. Alleen zij weten wat voor een bepaalde patiënt normaal is. Het maakt bijvoorbeeld uit of het om een kind gaat of een ouder iemand. Andere kansen die we zeker moeten benutten, is om werk dat weinig mensen willen doen door AI te laten doen. Denk aan saaie, repeterende handelingen in een fabriek of bij administratief werk.”  

Wat kunnen gevaren zijn van AI en waarom? 

“Eén van de gevaren van AI is dat mensen het gebruiken voor toepassingen waar het niet klaar voor is. Bijvoorbeeld om een uitkering aan mensen toe te kennen. Of om via camerabeelden iemand aan te houden voor een misdaad. Er is altijd een risico dat niet alle data die je gebruikt honderd procent objectief is. Als je AI voedt met data die subjectief is, zijn de uitkomsten van AI dat ook. Dat is dus een risico. Want AI mag natuurlijk niet discrimineren op bijvoorbeeld leeftijd of huidskleur.  

De meest succesvolle AI-systemen zijn een ‘black box’. Ze zijn zo complex dat het voor mensen nauwelijks is te begrijpen hoe ze tot hun beslissingen komen. Als AI is getraind met verkeerde data dan heeft het verkeerde dingen geleerd. Er is altijd een kans dat het fout gaat. Dat kunnen heel eenvoudige fouten zijn. Bijvoorbeeld dat het systeem elke naam die met een A begint, afwijst voor een lening. Ook kunnen er veel banen verloren gaan door AI. Bijvoorbeeld het besturen van een vrachtwagens over lastige routes. Niet nu maar over ongeveer vijftien jaar.” 

Hoe kunnen we AI op een verantwoorde wijze verder ontwikkelen?  

“Mensen moeten niet denken dat AI perfect is en alles alleen kan. We zullen juist moeten samenwerken met AI! Verder zullen we meer onderzoek moeten doen naar hoe we deze ‘domme’ systemen kunnen helpen. Als AI een foto bekijkt dan ziet het alleen maar pixels. AI heeft geen menselijke kennis en geen kennis van regels. Het weet niet wat een ziekte is of wat ethiek is. Daarom worden er hybride AI-systemen ontwikkeld waarbij AI gebaseerd op leren en AI gebaseerd op regels samenwerken. Die systemen kijken naar pixels met menselijke kennis van regels. Mensen hebben het systeem ‘uitgelegd’ waar het op moet letten.” 

Welke tips heeft u om verantwoordelijk om te gaan met AI? 

“Het is belangrijk dat iedereen begrijpt hoe AI werkt. En hoe je het in een bedrijf kunt toepassen. Beslissingen moeten transparant zijn. Uit onderzoek blijkt dat ChatGPT niet voor honderd procent te vertrouwen is. Het heeft geen kennis en geen logica. Het weet niet wat een feit is! ChatGPT is geen databank en is er ook niet aan gekoppeld. Het is een taalmodel dat ‘denkt’: welk woord komt hierna? Bijvoorbeeld als antwoord op een vraag. Als je op zoek gaat naar een citaat maakt het geen onderscheid tussen literatuur, een krant of onzin op internet. Daarvan moet je je bewust zijn. Dat betekent dat je inzicht moet hebben in hoe AI-systemen tot hun antwoorden en beslissingen komen. De antwoorden die ze geven, en de beslissingen die ze nemen, zul je inhoudelijk moeten controleren.” 

What’s next?  

“Robots zullen een deel van het werk doen dat nu door mensen gedaan wordt. Bijvoorbeeld in kerncentrales, bij natuurrampen of om mensen te redden. Over zo’n 15 jaar zullen ze mensen 24 uur per dag gaan verzorgen. Maar daarbij zullen ook mensenogen en -handen nodig blijven. Er wordt nu veel onderzoek gedaan naar hoe je patiënten medisch kunt ondersteunen met robots. Er zijn nu al zorgrobots met sensoren, stemsynthesizer, speakers en een ingebouwde camera. Die ondersteunen bijvoorbeeld therapeuten bij revalidatie- en bewegingsoefeningen. De robots registreren de uitgevoerde oefeningen, inclusief de intensiteit van de training per patiënt. Zorgrobots zijn ook heel geschikt als animators: ze spelen liedjes af en stimuleren mensen om mee te zingen. Ze kunnen ook allerlei vragen van patiënten beantwoorden. 

Ik hoop dat de AI-hype langzaam minder wordt, zodat we de tijd nemen om goed onderzoek te doen en toepassingen uitvoerig te testen. Het is mijn wens dat we leren leven met AI en het op een nuttige manier gebruiken. Daarvoor is meer onderzoek en uitleg nodig. We zullen moeten weten wat er in die black box gebeurt. Hoe AI tot zijn antwoorden en beslissingen komt. Er zullen altijd mensen bij nodig zijn als AI iets niet begrijpt. En misschien wordt AI in de toekomst aan een grote database gekoppeld om feiten te checken!” 

Over Natasha Alechina 

Dr. Natasha Alechina studeerde in 1986 cum laude af in Filosofie. Met haar proefschrift Probabilistic Semantics and Inductive Logic promoveerde ze vervolgens aan de staatsuniversiteit van Moskou. In 1995 promoveerde ze aan de Universiteit van Amsterdam binnen de faculteit Wiskunde en Informatica met haar proefschrift Modal Quantifiers. Van 1996 tot 1998 werkte ze aan de University of Birmingham en van 1998 tot 2019 aan de School of Computer Science van de University of Nottingham. Sinds 2019 is Alechina Universitair Hoofddocent aan de Faculteit Bètawetenschappen van de Universiteit Utrecht. Afgelopen september werd ze benoemd tot hoogleraar Safe and Responsible AI bij de Faculteit Bètawetenschappen van de Open Universiteit. 

Meer weten? 

Luister hier de Tegenlicht podcast: hoe gevaarlijk is AI nu echt?  

Dit artikel is een vervolg op het eerder verschenen artikel: AI, simpel uitgelegd

Gerelateerde artikelen