top of page
  • Foto van schrijverZhenja Gnezdilov

Het gevaar van verborgen vooroordelen in Artificial Intelligence

De ontwikkelingen op het gebied van Artificial Intelligence (AI) zijn volop gaande. Een recent voorbeeld hiervan is ChatGPT van OpenAI. Kort uitgelegd is dit een AI-model dat taal kan verwerken. De taken die het kan oplossen zijn onder andere het samenvatten van tekst, het voeren van gesprekken, het beantwoorden van vragen en het creëren van content, zoals een gedicht of computercode. Hoewel de resultaten van deze verschillende ontwikkelingen al veelbelovend eruit zien bestaan er nog een tal van ethische kwesties omtrent het gebruik van AI-systemen, bijvoorbeeld welke invloed het gaat hebben op onze arbeidsmarkt en samenleving.

Een model is slechts zo goed als het algoritme en de kwaliteit van de data waarop het model getraind is. Zo is het mogelijk dat er sprake is van bias. Dit kan leiden tot onbedoelde en ongewenste gevolgen. In dit blog gaan we dieper in op dit fenomeen en de manieren om bias te verzachten.

Wat is bias?

Onder bias verstaan we vooroordeel jegens iets of iemand. Een bekend voorbeeld hiervan is een AI tool van Amazon dat ontwikkeld werd om het recruitmentproces te automatiseren. De bedoeling was om de meest geschikte kandidaten te selecteren voor openstaande vacatures. Het systeem bleek echter een ongewenst bijeffect te hebben voor bepaalde (IT) functies: er was een sterke voorkeur voor mannelijke kandidaten. Hierdoor was er sprake van discriminatie van vrouwen voor de functies in kwestie.


Hoe was dit mogelijk? De beslissingen die het model maakte waren bevooroordeeld omdat er geen rekening gehouden werd met de ongelijke verdeling van het geslacht in de data waarop het model getraind was. Voorgaande IT-functies werden veelal vervuld door mannen, en het model maakte hieruit op dat vrouwelijke kandidaten minder geschikt waren.


Uit dit voorbeeld vallen twee manieren op waardoor bias kan ontstaan. In het geval van Amazon was ten eerste de data niet representatief voor het geheel. Ten tweede was het algoritme niet voorbereid op de ongelijke verdeling. Een derde manier waarop bias kan ontstaan is de mens zelf. Omdat wij als mensen gebruik maken van technologie kan bias ontstaan door menselijke fouten, zoals het verkeerd invoeren van gegevens. AI neemt beslissingen op basis van gegevens, maar als deze gegevens onvolledig, verouderd of verkeerd zijn, kunnen menselijke vooroordelen, onze eigen bias, in het geheel sluipen bij het creëren van een AI-model.

Bias in data is een probleem

Naast discriminatie kan bias zorgen voor een oneerlijke behandeling van groepen in de samenleving. In veel gevallen ontstaat deze bias doordat minderheidsgroepen en uitzonderingsgevallen niet goed gerepresenteerd worden in de data. Om onbedoelde en ongewenste gevolgen te voorkomen is het dus belangrijk om goed op te letten op bias in de data.

Daarnaast kunnen resultaten van een model dat bias bevat onnauwkeurig zijn. Dit kan lastig te detecteren zijn omdat bij het testen van een model de resultaten ‘juist’ kunnen lijken, maar dit niet zijn. Als een model bias bevat zijn de resultaten hierdoor beïnvloed, maar is dit niet altijd duidelijk op het eerste gezicht te herkennen. Zo kunnen de algehele prestaties goed zijn, maar werkt het model niet of minder goed voor minderheidsgroepen en uitzonderingsgevallen. Om accurate resultaten waarop vertrouwd kan worden te behalen is het van belang om op te letten op bias.

Hoe kun je bias verzachten?

Het is over het algemeen vrijwel onmogelijk om bias te voorkomen of compleet weg te nemen. Er zal altijd enige mate van bias in data achterblijven en het zit in onze aard als mensen om tot op zekere hoogte bevooroordeeld te zijn of ergens een voorkeur aan te geven. Wanneer je bias weg probeert te halen uit een model is dit namelijk ook een vorm van bias. Want, waar leg je de grens in het balanceren van je data? Gelukkig zijn er wel manieren om bias te verzachten. Manieren om bias te verminderen in AI-modellen zijn:

  • Het monitoren van de trainingsdata op ongewenste patronen of opmerkelijke verschillen. In het beste geval is de data zo representatief mogelijk. Zo kan bias optreden voor onder andere gender, etniciteit of leeftijd. Als het blijkt dat er bijvoorbeeld aanzienlijk meer mannen dan vrouwen in de dataset zijn, dan kan hier rekening mee gehouden worden bij het ontwerpen van het algoritme. Het ene AI-algoritme kan beter overweg dan het andere algoritme. Sommige algoritmes zijn specifiek ontworpen om met onbalans in de data om te gaan.

  • Het kan ook helpen om bias te verminderen door het monitoren van het model zelf. Door continu in het proces de resultaten van het model te evalueren kunnen er al vroeg stappen genomen worden om eventuele bias te verminderen.

  • Gebruik een mix van AI-technieken om bias te minimaliseren, zoals iteratief leren, het normaliseren van data of het opschonen van data.

  • Om menselijke bias te verminderen is het belangrijk om een ​​divers team van ontwikkelaars en testers met verschillende achtergronden en ervaringen samen te laten werken bij het ontwerpen en ontwikkelen van het model. Ook is het van belang dat het team tijdens het hele proces bewust bezig is met het onderwerp en dit actief onderling bespreekt.

コメント


コメント機能がオフになっています。
bottom of page