De inzet van algoritmes wordt steeds gebruikelijker bij complexe of repeterende taken. Dit heeft natuurlijk veel voordelen, maar er liggen ook risico’s op de loer voor rechten en vrijheden van personen. Daarnaast kan het voor flinke vertrouwensschade zorgen wanneer organisaties niet verantwoord om gaan met algoritmes. Het Impact Assessment Mensenrechten en Algoritmes is hét instrument om de juiste afwegingen te maken en vast te leggen voordat een algoritmische toepassing in gebruik wordt genomen.

Waarom PMP voor een IAMA?

PMP heeft ruime ervaring met het doen van impact assessments, en kent de dialogen over processen in het digitale domein. Deze bestaan immers al jarenlang op basis van gegevensbeschermingsrecht. Vanuit deze hoek hebben wij veel processen en toepassingen getoetst aan grondrechten. Middels interactieve workshops en risicoscenario’s komen wij tot praktische handvaten.

PMP heeft expertise met de belangrijkste onderdelen van het IAMA-proces, denk hierbij aan onze ervaring met workshops, mensenrechten, risico’s, en een vertaalslag naar maatregelen.


Inpassing in DPIA-proces

Het IAMA kan eenvoudig ingepast worden bij het DPIA-proces. Een DPIA is van belang als aan een gegevensverwerking substantiële of ernstige risico’s gekoppeld zijn. Deze beoordeling ziet toe op de risico’s voor de rechten en vrijheden van betrokkenen en daarmee ook grondrechten in het algemeen. In het geval dat een project persoonsgegevens bevat en daarnaast ook gebruik maakt van een algoritme, zou het kunnen dat een overheidsorganisatie een DPIA en een IAMA  moet (of wil) uitvoeren.

Wat als voornaamste verschil wordt genoemd is dat IAMA zich richt op algoritmes terwijl een DPIA gaat over persoonsgegevens. Echter, is er vaak overlap. De meest risicovolle algoritmes maken namelijk ook gebruik van persoonsgegevens. Dat blijkt uit de bekende voorbeelden van de afgelopen jaren waar overheidsorganisaties in opspraak kwamen bij toepassing van algoritmes. Overheden zijn in zulke situaties verplicht tot beide assessments. Het algoritme is namelijk vaak een essentieel onderdeel van de wijze waarop de persoonsgegevens verwerkt worden. Waarom zouden deze verplichtingen niet gecombineerd opgepakt kunnen worden?


Inpassing in bewustwording, beleid en normenkaders

Het IAMA zorgt voor meer kennis van de risico’s en noodzakelijke principes rondom het werken met algoritmische toepassingen. Bijvoorbeeld bij managers en leden van een projectgroep. Ook kunnen de voorgestelde maatregelen input zijn voor het AI-beleidstraject bij de organisatie.

Wat betreft ethische normen, risico’s en maatregelen wordt aangesloten op bestaande normenkaders, waaronder de EU Artificial Intelligence Act. PMP richt zich op een zo praktisch mogelijke toepassing van het IAMA binnen de organisatie in samenhang met bestaande kaders.


Eerste stap: Proces van algoritme-toepassing beoordelen

Via een snelle beoordeling bouwen we een eerste beeld op van de risico’s en welke onderdelen er nodig zijn binnen het proces. Neem contact met ons op voor deze beoordeling. Aan deze beoordeling en kennismaking zijn geen kosten verbonden.


PMP is deelnemer aan De Nederlandse Coalitie (NL AIC)

De Nederlandse AI Coalitie (NL AIC) is een publiek-private samenwerking, waarbij overheid, bedrijfsleven, onderwijs- en onderzoeksinstellingen en maatschappelijke organisaties samenwerken. De coalitie heeft als doel de Nederlandse activiteiten in AI te stimuleren, te ondersteunen en waar nodig te organiseren. Ze wil Nederland in een voorhoedepositie krijgen op het gebied van kennis én toepassing van AI voor welvaart en welzijn. De NL AIC moet gaan functioneren als dé katalysator van AI-toepassingen in ons land. Meer informatie vindt u op nlaic.com.  

Zullen we kennismaken?

Zullen we kennismaken?

We nodigen u graag uit voor een kop koffie. Dan bespreken we wat u nodig heeft en hoe wij u daarin kunnen ondersteunen.

  • drs. Joris Hutter – Partner
Neem contact op