Heeft sciencefiction de realiteit ingehaald? Moet ik bang zijn voor de evolutie van AI? U bent niet de enige die dergelijke vragen stelt.

De mogelijkheden van AI zijn immens, maar gaan gepaard met veel zorgen en ethische vragen: hacking, discriminatie, gevaren voor de privacy, of zelfs de macht van de machine over de mens. De lijst is lang, en hoewel sommige angsten louter science fiction zijn, zijn andere zeer reëel.

Kan AI morgen de mensheid overheersen?

Laten we beginnen met de fantasieën. Zo bijvoorbeeld het risico van wereldheerschappij door een "artificiële superintelligentie". Hoe leergierig AI’s ook zijn, hun huidige vormen blijven zeer beperkt in vergelijking met de menselijke intelligentie. Wij zijn in staat veel uiterst verschillende dingen te doen (autorijden, tekenen, zingen ...). AI kan dat niet, want het blijft altijd beperkt tot de oorspronkelijke taak die de ontwerper eraan heeft toegekend. Zo zal een AI die gespecialiseerd is in het herkennen van honden op foto's nooit op autonome wijze katten kunnen herkennen. Dat is gewoon niet voorzien in de basisalgoritmen.

Als een AI dus potentieel in staat is om op den duur een menselijke intelligentie te overtreffen voor een zeer specifieke taak, zal het er nooit in slagen om zo veelzijdig te zijn als wij. "Terminator" blijft dus een hersenschim!

Risico’s in de gaten houden

Anderzijds wijzen deskundigen nuchter op een aantal zeer reële risico's:

  • Hacking. Stel je voor dat je autonome auto wordt gehackt. De mogelijkheid moet dus bestaan om deze AI in noodgevallen uit te schakelen.
     
  • Discriminatie. Als de gegevens waarmee de AI zichzelf autonoom voedt, corrupt of vertekend zijn, zullen de resultaten deze gebreken weerspiegelen. Zo moest in 2016 Microsofts chatbot AI "Tay", die met het publiek ging chatten op sociale netwerken, al na een paar uur worden gedeactiveerd omdat hij racistische, seksistische of homofobe opmerkingen begon door te geven. Dat voorbeeld toont aan dat AI, hoe geavanceerd ook, de ongelijkheden in onze samenlevingen dreigt te reproduceren als daar niet van meet af aan rekening mee wordt gehouden.
  • Schending van privacy. AI heeft gegevens nodig om te leren en efficiënter te worden. Die gegevens kunnen persoonlijk zijn. AI is echter in staat verscheidene databanken te vergelijken om personen te identificeren, ook al werden de data geanonimiseerd. Dat kan de privacy bedreigen. Vandaar de noodzaak om AI met dat risico in het achterhoofd te ontwerpen. In de Europese Unie beschermt de Algemene Verordening Gegevensbescherming (AVG/GDPR) tegen dergelijk misbruik van persoonsgegevens.
     
  • Het "zwarte doos" effect. Met "deep learning" slaagt AI er steeds beter in de werking van menselijke neurale netwerken na te bootsen. Het wordt dus hoe langer hoe moeilijker de redenering te begrijpen die de machine heeft gevolgd om tot het eindresultaat te komen dat zij ons voorlegt. Dat risico van goede of slechte maar onbegrijpelijke beslissingen zou zowel ethische problemen opleveren (hoeveel autonomie zou de mens nog hebben?) als juridische (wie is verantwoordelijk voor de beslissing van de AI als wij die niet begrijpen?).

Verantwoordelijkheid als een vorm van ethiek

In dat verband is het goed om te weten dat er al veel over AI wordt nagedacht om het gebruik wettelijk te regelen en de risico's ervan te beperken. Zo werkt de Europese Unie, en daarom ook België, momenteel aan de opstelling van gemeenschappelijke regels om AI te dwingen een aantal ethische richtlijnen in acht te nemen.

Een van de regels is dat AI op een zodanige manier moet worden ontworpen dat menselijke ondersteuning, veiligheid en transparantie bij de werking ervan voorrang krijgen. Het is duidelijk dat AI uiteindelijk de belangen van de burgers moet dienen, en niet andersom.