Artificial Intelligence (AI) heeft ons vele voordelen te bieden door processen uit handen te nemen of makkelijker te maken. Denk hierbij bijvoorbeeld aan navigatie systemen zoals Google Maps, het automatiseren van industriële processen door robots, of het licht aan of uit doen door een zin te zeggen tegen je digitale assistent, zoals Google Home of Alexa. Maar ook het vertalen van tekst, zoals de ondertiteling van films, en zelfrijdende auto’s, behoren tot de voordelen die AI de mens biedt.
Kunstmatige intelligentie is niet meer weg te denken uit onze maatschappij en het aantal toepassingen van AI blijft toenemen. Hiermee nemen echter de risico’s ook toe. Er bestaan nog een tal van ethische kwesties omtrent het gebruik van AI-systemen. Eerder schreven we al over het gevaar van vooroordelen (bias) in AI. Artificial Intelligence heeft ook risico’s omtrent privacyinbreuk en databeveiliging. In dit blog gaan wij hierop in.
Privacyinbreuk door kunstmatige intelligentie
Om privacyinbreuk te voorkomen zijn er een aantal dingen nodig, zoals strenge wetgeving rondom het gebruik van AI en het verzamelen van persoonlijke gegevens. Hiermee kan verantwoordelijkheid wat betreft privacy bij bedrijven die persoonlijke informatie verzamelen afgedwongen worden. Ook moeten deze bedrijven transparant zijn in welke gegevens ze verzamelen, waar deze gegevens voor gebruikt worden en wat de gevolgen kunnen zijn van het verstrekken van deze gegevens.
AI Act
Op 21 april 2021 heeft de Europese Commissie een voorstel ingediend voor een wet voor de regulatie van Artificial Intelligence. Deze wet heet de AI Act en is de eerste vorm van regulatie wat betreft AI tot nu toe. Een van de ideeën in het voorstel is om AI-systemen in te gaan delen in groepen. AI-systemen met een laag maatschappelijk risico zouden niet gereguleerd hoeven worden, AI met hoog maatschappelijk risico moeten volgens deze wet wel gereguleerd worden. Deze AI act is nog in ontwikkeling, maar moeten de rechten en vrijheden van EU-burgers m.b.t. AI algoritmen garanderen en deze wet stelt eisen aan externe controles van AI-systemen, bijvoorbeeld door toezichthouders.
Wie is verantwoordelijk voor AI-algoritmen?
In het geval dat een AI-model een fout maakt is het moeilijk te bepalen wie verantwoordelijk is. Is het de ontwikkelaar van het systeem of heeft de eindgebruiker die het systeem gebruikt ook een mate van verantwoordelijkheid? Er zijn maatregelen die genomen kunnen worden om fouten van AI-systemen te beperken. Allereerst moet de data die door het systeem wordt verwerkt, volledig worden gevalideerd en geanalyseerd, zodat mogelijke onregelmatigheden of fouten herkend kunnen worden. Daarnaast moet bias in de trainingsdata gemitigeerd worden. Wanneer de datakwaliteit op orde is, en de data actueel is, wordt de kans op een fout door een AI-systeem kleiner. Tot slot moeten AI-systemen zorgvuldig getest worden, ook onder uitzonderlijke omstandigheden.
Het voorkomen van fouten is de basis van beleid omtrent de verantwoordelijkheid voor de uitkomsten van een AI-systeem. In dit beleid moet staan wie welke verantwoordelijk draagt voor de beslissingen van een AI-systeem, hoe de resultaten onafhankelijk beoordeeld worden, hoe fouten opgelost worden en hoe bezwaar gemaakt kan worden door individuen tegen uitkomsten van het AI-model.
Beveiliging van data
Omdat AI-systemen vaak gevoelige informatie bevatten of getraind worden met gevoelige informatie, is het belangrijk dat alle data veilig opgeslagen wordt. Er zijn verschillende manieren waarop organisaties hun AI-systemen kunnen beveiligen. Zo is het van belang om een goed data governance beleid te implementeren. Wanneer er wordt gewerkt met data binnen een organisatie moeten alleen de specifieke mensen, die de data voor hun werkzaamheden nodig hebben, toegang hebben tot deze data. Niet-essentiële toegang tot gegevens moet worden beperkt of uitgesloten. Tevens moet er vastgelegd worden wie welke verantwoordelijkheden draagt omtrent de opgeslagen data en voor welke doeleinden de data gebruikt mag worden.
Daarnaast zijn er een aantal technieken om de data en modellen zelf te beveiligen. Denk hierbij aan het gebruik van sterke wachtwoorden, end-to-end encryptie van data, beveiligde verbindingen, firewalls en anti malware software. Bovendien is het van belang om systemen waarop AI-modellen draaien te onderhouden door middel van regelmatige updates en regelmatig (externe) audits van de systemen uit te voeren.
Het geheel aan maatregelen om data en AI-modellen te beveiligen is onderdeel van het data governance beleid en dient ook vastgelegd te worden. Hierdoor wordt het makkelijker om te bepalen wie verantwoordelijk is voor welk onderdeel wat betreft het beveiligen van data en ontstaat er meer naleving in de uitvoering van de opgestelde maatregelen. Zo kan er bij verdachte activiteiten snel geschakeld worden en kan een organisatie direct actie ondernemen.
Het begint bij onszelf
AI biedt kansen om ons leven te vergemakkelijken, maar het kan ook een gevaar worden, wanneer we het niet met de juiste ethische principes en voorbereiding gebruiken. Daarom is het belangrijk om verantwoord met AI om te gaan. Alleen op deze manier kunnen we ervoor zorgen dat AI een krachtig en waardevol hulpmiddel wordt voor iedereen. De volgende stap is om ervoor te zorgen dat we de juiste middelen hebben om deze kracht op een verantwoordelijke manier te gebruiken.