De staatssecretaris Koninkrijksrelaties en Digitalisering zegt de Kamer, naar aanleiding van een vraag van het lid Veldhoen (GroenLinks), toe dat mensenrechtentoetsen met betrekking tot AI-gebruik gedaan en herhaald worden. Bovendien zullen de toetsen worden gepubliceerd.
Nummer | T03667 |
---|---|
Status | deels voldaan |
Datum toezegging | 21 maart 2023 |
Deadline | 1 juli 2024 |
Verantwoordelijke(n) | Staatssecretaris Digitalisering en Koninkrijksrelaties |
Kamerleden | mr. G.V.M. Veldhoen (GroenLinks-PvdA) |
Commissie | commissie voor Digitalisering (DIGI) |
Soort activiteit | Plenaire vergadering |
Categorie | brief/nota |
Onderwerpen | artificiële intelligentie mensenrechtentoets publiek |
Kamerstukken | Grip op algoritmische besluitvorming bij de overheid (CXLVII) |
Handelingen I 2022-2023, nr. 23, item 9 - blz. 27
Staatssecretaris Van Huffelen:
(…)
“Dan de vraag van mevrouw Veldhoen over het Impact Assessment voor Mensenrechten. Wij vinden het ongelofelijk belangrijk dat dit onderdeel wordt van ons implementatiekader. Als de overheid gebruik gaat maken van algoritmes om wetten uit te voeren of besluitvorming te ondersteunen, dan vinden wij het belangrijk dat er een mensenrechtenassessment wordt gedaan.
Het idee is overigens dat diezelfde mensenrechtenassessments onderdeel zijn van de Europese besluitvorming. Dat is op dit moment opgenomen in het voorliggende voorstel. Dat voorstel is nog in discussie in het Europees Parlement; samen met de Commissie zitten wij daar in de voorfase van de triloogfase. Maar wij willen dat in ieder geval opnemen in het implementatiekader dat wij voor onszelf willen laten gelden. Dat willen wij doen door zo duidelijk mogelijk een stappenplan te maken waarbij helder is hoe en wanneer deze besluiten worden genomen. Overigens werden deze vragen over het Impact Assessment voor Mensenrechten ook door een aantal andere Kamerleden gesteld. Wij willen dus heel graag dat die mensenrechtentoets wordt gedaan.
Die toets moet ook meermalen worden herhaald. Die is juist ook zo belangrijk om te voorkomen dat je niet alleen bij de start van de inzet van algoritmes, maar ook tijdens het gebruik opnieuw toetst of er niet sprake is van ontstane bias in het systeem, of het algoritme uiteindelijk niet de besluiten neemt en als zodanig niet voldoet aan de mensen- rechten dat het niet meer kan worden ingezet of niet tot de goede resultaten leidt. Die mensenrechtentoetsen worden dus steeds herhaald.”
Mevrouw Veldhoen (GroenLinks):
“Ik ben blij om te horen dat die mensenrechtentoetsen worden gedaan en ook steeds weer worden herhaald. Dat is een hele mooi stap. Worden de uitkomsten van die mensenrechtentoetsen ook steeds gepubliceerd? Dat was een van mijn vragen.”
Staatssecretaris Van Huffelen:
“Wat de overheid betreft is het antwoord daarop ja. Dat is ons idee. Behalve wanneer het om heel bijzondere redenen niet zou kunnen, bijvoorbeeld als het gaat om veiligheid; bij hele specifieke onderwerpen dus. Maar in principe is het antwoord ja. In het kader van de Europese verordening is dat niet zo. De toezichthouders hebben dan wel toegang — in ons geval zou dat de Autoriteit Persoonsgegevens zijn — maar het is niet noodzakelijk dat het wordt gepubliceerd. Maar wij gaan het voor overheidsalgoritmes publiceren.
Dan het risico op profileren en strafbare feiten. Dat ging om de vraag of er een overzicht te maken is van lokale of nationale overheden die gebruikmaken van risicoprofielen om eventuele strafbare feiten of frauderisico's te detecteren. Eigenlijk zijn we dat aan het doen. We hebben het algoritmeregister gemaakt. Dat register is nog niet volledig gevuld, maar we hebben het gelanceerd. Ons idee is dat ieder algoritme dat de overheid gebruikt daarin wordt geregistreerd. Dat zijn dus ook algoritmes die tot doel hebben risico's te detecteren of te profileren, voor zover dat überhaupt mag. Nogmaals, we zullen heel terughoudend zijn als het gaat over het inzetten van profilering op basis van kenmerken die leiden tot discriminatie of anderszins. Alle algoritmes die wij gebruiken van het type hoog risico — dat zijn alle algoritmes waarin persoonsgegevens worden verwerkt — stoppen we in dat register. Het zal dus ook duidelijk zijn welke dat zijn. Een van de vakjes in het register die moeten worden ingevuld, is of er een mensenrechten- toets is gedaan en, zo ja, wat de uitkomsten daarvan zijn.”
Mevrouw Veldhoen (GroenLinks):
“Ik wil het toch nog even specificeren. Wordt in zo'n register ook duidelijk dat het om hoogrisicoalgoritmes gaat? Met andere woorden: als je in dat register kijkt, wordt dan ook duidelijk bij welk type gebruiker er sprake is van een hoogrisicogebruik, zodat je als burger niet eerst door een enorme waslijst moet maar meteen kunt zien dat het bij- voorbeeld gaat om een risicoanalyse ten aanzien van strafbare feiten of fraude? Is het voor de burger dus inzichtelijk of er sprake is van een hoog of laag risico?”
Staatssecretaris Van Huffelen:
“Sowieso willen we in dat register alleen hoogrisicoalgoritmes opnemen, dus niet de algoritmes die de liften in de ministeries aansturen of dat soort algoritmes die we bij de overheid ook gebruiken. Het gaat over de hoogrisicoalgoritmes. Die moeten daarin staan. Het register zal niet altijd voor een burger makkelijk toegankelijk zijn. Het is er vooral om aan ngo's, onderzoekers en wetenschappers te laten zien dat die algoritmes er zijn. Nogmaals, wat we bij individuele besluitvorming kunnen gaan overwegen — daarover hadden we het eerder al — is om voor een burger inzichtelijk te maken dat bij een genomen besluit een algoritme is gebruikt. Je kunt dat algoritme natuurlijk uitzoeken. Alleen maar zeggen dat er een algoritme is toegepast bij besluit- vorming is onvoldoende. Het register probeert ook inzicht te bieden in zo'n algoritme. Maar goed, het vergt wel enige kennis als je daar meer over wilt weten. We proberen dat zo goed mogelijk te doen door kenbaar te maken hoe het in elkaar zit en op basis van welke feiten en gegevens besluitvorming plaatsvindt, maar het zal voor burgers soms nog best lastig zijn om echt goed in dat algoritmeregister te zoeken. Maar we proberen het zo goed mogelijk te doen. Onze eerste taak is dan ook om ervoor te zorgen dat het inzichtelijk is en dat mensen die daar onderzoek naar willen”
Handelingen I 2022-2023, nr. 23, item 9 - blz. 43
Mevrouw Veldhoen:
(…)
“Ik ben blij met de toezegging voor versterking van de ondersteuning van de rechtspraak en voor versterking van de Awb ten aanzien van kenbaarheid en motivering ten aanzien van AI-gebruik en dat daarbij het Franse voorbeeld wordt meegenomen. Ook ben ik blij met de toezegging ten aanzien van de publicatie van de mensenrechtentoetsen.”
Brondocumenten
-
debat over algoritmische besluitvorming bij de overheid Verslag EK 2022/2023, nr. 23, item 9
-
6 juni 2024
nieuwe status: deels voldaan
Voortgang:documenten:-
-brief van de staatssecretaris van BZK over de voortgang en afdoening van moties en toezeggingen die raken aan het onderwerp artificiële intelligentie en algoritmes
Voor kennisgeving aangenomen op 18 juni 2024.
EK, Q
-
-
28 mei 2024
nieuwe status: openstaand
Voortgang: -
13 mei 2024
nieuwe status: openstaand
Voortgang:documenten:-
-verslag van een schriftelijk overleg met de minister van BZK over (deels) openstaande toezeggingen
Op 14 mei 2024 door de commissie voor IWO voor kennisgeving aangenomen.
EK 36.410 VII / 36.410 IV, I
-
-
23 januari 2024
nieuwe commissie: commissie voor Digitalisering (DIGI) -
23 januari 2024
commissie vervallen: commissie voor Binnenlandse Zaken (BIZA) -
5 december 2023
nieuwe commissie: commissie voor Binnenlandse Zaken (BIZA) -
5 december 2023
nieuwe deadline: 1 juli 2024
nieuwe status: openstaand
Voortgang: -
5 december 2023
commissie vervallen: commissie voor Justitie en Veiligheid (J&V) -
24 november 2023
nieuwe status: openstaand
Voortgang:documenten:-
-verslag van een schriftelijk overleg met de minister van BZK over (deels) openstaande toezeggingen
EK 36.410 VII / 36.410 IV, C
-
-
21 maart 2023
toezegging gedaan