Eind september diende de Franse volksvertegenwoordiger Eric Bothorel een klacht in tegen ChatGPT bij de Commission Nationale de l’Information et des Libertés, de CNIL. Zijn klacht was niet mals: als kiezers aan ChatGPT om een biografie van de parlementariër vroegen, stapelde de robot fout op fout. Om te beginnen vergiste hij zich in het kiesdistrict waarin Bothorel was verkozen. De arme man zou burgemeester en raadslid van een regio zijn geweest, twee banen die hij nooit had gehad. De robot verzekerde ook dat hij voor Havas en Orange heeft gewerkt, twee grote Franse bedrijven die hij nooit als werknemer van binnen heeft gezien.
Als je beseft dat in Nederland al zo’n zestigduizend kiezers per week biografische informatie over politici opvragen via (het wel betrouwbare, maar bedreigde) parlement.com, dan zouden dat er bij een bijna vier keer zo grote Franse bevolking dus honderdduizenden kunnen zijn. Franse politici hebben al last van anti-elite desinformatie en insinuaties die online worden verspreid over hun vermeende privileges (zogenaamd gratis eten in de parlementskantine en erger), nu komt dit er nog bij.
Het is al lang en breed gedocumenteerd dat ChatGPT en soortgelijke technologieën de neiging hebben te gaan “hallucineren”, dat wil zeggen elementen te gaan verzinnen als ze geen antwoord hebben op vragen, aldus Le Monde. Dit jaar maart beklaagde een Amerikaanse hoogleraar zich omdat ChatGPT meldde dat hij zich schuldig had gemaakt aan seksueel wangedrag. De robot preciseerde zelfs dat de aanranding had plaatsgevonden tijdens een reis – waaraan de professor nooit had deelgenomen. Ook zou hij bij een andere universiteit werken dan die waar hij werkelijk was aangesteld.
In Italië was ChatGPT bijna de hele maand april uit de lucht nadat de Italiaanse toezichthouder voor bescherming van persoonsgegevens het bedrijf achter de kwekrobot, OpenAI, opdracht had gegeven het systeem tijdelijk te blokkeren. Dit wegens foute biografische informatie en mogelijke schending van meerdere clausules van de European Data Protection Regulation, te weten 5,6,8,13,14 en 25 die voornamelijk betrekking hebben op de plicht individuen te informeren en/of om toestemming te vragen als een AI-systeem wordt gevoed met persoonlijke data, al of niet om het te “trainen”. Ook zou ChatGPT zich niet houden aan de plicht tot het checken van de leeftijd van gebruikers, die in theorie minstens dertien jaar moesten zijn.
OpenAI moest van de Garante per la protezione di dati personali (GPDP) onder meer een mechanisme gaan aanbieden dat Italianen de mogelijkheid zou bieden foute informatie te corrigeren. Bij gebrek aan een account en omdat ik niet in Italië woon, kan ik niet onafhankelijk verifiëren of nu aan deze eis van de GPDP en andere wordt voldaan, zoals het lanceren van een publiekscampagne “op de radio, televisie, in kranten en op internet” met uitleg over de wijze waarop OpenAI hun persoonlijke data gebruikt.
Ook in Canada en Duitsland zijn privacy-toezichthouders onderzoeken gestart en de EU is druk bezig met regels voor de toekomst.
Het vervelende is natuurlijk dat je zelf ChatGPT moet gaan gebruiken om te zien wat erover jouw persoon wordt beweerd. Er zullen dus wel nieuwe bedrijfjes ontstaan die dit tegen betaling voor je doen maar deze startups zouden dat dus soms dagen tot jaren moeten volhouden, niet alleen voor volksvertegenwoordigers, kandidaten bij verkiezingen maar ook bijvoorbeeld sollicitanten, want AI leert voortdurend bij. En wat gaan die bedrijfjes dan weer doen met de verzamelde informatie? Hebben die hun eigen privacybescherming wel op orde? Ik herinner me tot Nederlanders genaturaliseerde vluchtelingen die voor de AIVD, of was het de MIVD, gesprekken afluisterden en daarvan voor privégebruik kopietjes maakten om landgenoten te chanteren. Van die dingen dus.
Twee Zwitserse deskundigen wezen ook nog op het volgende: “AI kan verschillende datasets combineren en daardoor heel verschillende types informatie matchen. Daardoor wordt het moeilijker om onderscheid te maken tussen persoonsgegevens en feitelijke data. Ook kan AI persoonlijke informatie afleiden uit een combinatie van onpersoonlijke data.”
Ik denk dan aan voor biografen interessante door AI gegenereerde informatie zoals: “Deze parlementariër kreeg in de vorige eeuw 2,3 kinderen”.
It’s a brave new world.
(Bronnen: Le Monde, Lexocology.com)
Ik las enkele dagen later ook nog dit in het blad Skepter: “De chatbot benoemt met gemak de kernboodschap van The Origins of Totalitarianism van Hannah Arendt. Anders wordt het als je de chatbot vraagt een samenvatting te geven van een boek van Harry Mulisch, Onderweg naar Texel. “Jan, die worstelt met de dood van zijn vader en het feit dat hij halfjood is, gaat op zoek naar antwoorden over zijn identiteit en de gebeurtenissen die leidden tot de dood van zijn vader… Een klassieker… vaak beschouwd als een van Mulisch’ beste werken.”
Jammer is alleen dat Mulisch het boek nooit heeft geschreven.