ChatGPT en privacy: welke risico's loop je als gebruiker?
.png?rev=2aaba62b-6d1d-4a2a-b6b6-a44647c5b202&la=nl-BE&h=270&mw=480&w=480&hash=6D9960813049ED540741F8B047231ED7)
Wat is ChatGPT?
De "beroemde" ChatGPT is een AI (artificiële intelligentie) die in staat is om geschreven inhoud, teksten of afbeeldingen te genereren. Ontwikkeld door OpenAI, is deze chatbot meer dan alleen een conversatiemachine: het wordt een generatieve AI genoemd.
Zijn toepassingen zijn talrijk:
- Het verstrekken van informatie;
- Het schrijven van een scriptie, een boek, een artikel;
- Coderingslijnen ontwikkelen;
- Samenvatten van lange teksten;
- Classificaties uitvoeren vanuit een spreadsheet;
- Inspiratie opdoen;
- Afbeeldingen genereren (functie voor betalende abonnees) …
Op basis van een geschreven instructie, ook wel "prompt" genoemd, voert ChatGPT uit wat er van hem wordt gevraagd. Om je te registreren en de chatbot te kunnen gebruiken, moet je een geldig en authentiek e-mailadres en telefoonnummer gebruiken.
Maar waarom gebruiken we ChatGPT? Ontdek de resultaten van ons onderzoek naar de redenen voor het gebruik van deze AI.
Terug naar boven
Respecteert ChatGPT de GDPR?
Wat is de GDPR en waarom is het belangrijk voor gegevensbescherming?
De GDPR is een Europese regelgeving die organisaties en individuen verplicht om persoonlijke gegevens van gebruikers op een transparante manier te gebruiken. Dit geeft consumenten meer controle en zeggenschap over de bescherming van hun gegevens.
Het is niet helemaal zeker of ChatGPT voldoet aan de GDPR
Gebruikers van ChatGPT hebben de neiging te geloven dat hun privacy beschermd is bij het gebruik van ChatGPT of vergelijkbare systemen (volgens ons onderzoek). Als je echter gevoelige persoonlijke informatie deelt tijdens een gesprek met ChatGPT, kunnen deze gegevens worden opgeslagen op de servers van het bedrijf voor "verbetering van hun diensten en het uitvoeren van onderzoek".
Dit, in combinatie met het feit dat de gebruiker een telefoonnummer en een geldig e-mailadres moet verstrekken om zich aan te melden, roept vragen op over de naleving van de GDPR.
Bijvoorbeeld, met betrekking tot het recht om vergeten te worden, een vereiste van de GDPR, hebben gebruikers geen mogelijkheid om te weten of ChatGPT hun informatie gebruikt en of deze daadwerkelijk uit de database wordt verwijderd. Bovendien voldoet ChatGPT niet aan de verplichting van de GDPR om nauwkeurige gegevens te verwerken. De chatbot maakt namelijk fouten; historische fouten, persoonsverwarring, enz.
De naleving van de GDPR door ChatGPT lijkt op sommige punten onzeker.
Terug naar bovenWat zijn de risico's als je ChatGPT gebruikt?
Er zijn verschillende redenen waarom het gebruik van informatie afkomstig van een AI zoals ChatGPT problematisch kan zijn.
Over het algemeen kan de gebruiker van ChatGPT worden blootgesteld aan sancties als gevolg van bijvoorbeeld schending van de algemene voorwaarden van ChatGPT.
Risico's van misleidende informatie van ChatGPT
Als je ChatGPT al hebt gebruikt, weet je dat het regelmatig vage of onnauwkeurige informatie geeft. Dit komt doordat ChatGPT nieuwe teksten produceert op basis van informatie die op internet is gevonden. En deze informatie kan onjuist zijn. Het web staat namelijk vol met propaganda, lobbyen en opiniestukken.
Problemen met privacy en het gebruik van privégegevens
De gegevens die door ChatGPT worden verstrekt, kunnen privé zijn. Veel gegevens op internet bevatten persoonlijke informatie over mensen, soms zelfs hun adres of andere privé-informatie die hun identiteit zou kunnen onthullen.
Deze informatie is verzameld zonder toestemming van de betrokkenen, wat een duidelijke schending van de privacy vormt.
Risico's van het niet naleven van het auteursrecht
Boeken, artikelen, essays... zoveel informatie beschikbaar op het web die wordt gebruikt om de AI te voeden, zonder toestemming van de auteurs. ChatGPT gebruikt alle beschikbare informatie online, of het nu gaat om een blogartikel, een eenvoudige opmerking of een uitgebreider artikel. Maar is dat legaal?
Volgens de wet is elke reproductie (zelfs gedeeltelijk) van door auteursrecht beschermde inhoud onwettig zonder toestemming van de auteur.
Maar een Europese richtlijn voorziet in een uitzondering voor AI: deze staat toe dat beschermde werken als trainingsbronnen door AI kunnen worden gebruikt. Toch kunnen auteurs dit gebruik weigeren. Maar hoe kan men hier in de praktijk zeker van zijn? Wordt vervolgd...
Risico's op het gebied van aansprakelijkheid: Welke risico's loop ik als ik ChatGPT verkeerd gebruik?
Een van de belangrijkste risico's van het gebruik van ChatGPT is het risico op juridische aansprakelijkheid als gevolg van de soms bevooroordeelde of gevoelige antwoorden.
In het geval dat de verstrekte antwoorden discriminerend of ongepast zouden zijn (bijv. aanzetten tot haat; racistische opmerkingen; pedopornografische inhoud, enz.), zou de gebruiker blootgesteld kunnen worden aan strafrechtelijke sancties.
Bovendien, als ChatGPT inhoud genereert die inbreuk maakt op auteursrechten, zou het zichzelf kunnen blootstellen en/of zijn gebruikers blootstellen aan gerechtelijke vervolging.
Terug naar boven5 Tips om je privacy te beschermen als je ChatGPT gebruikt
Terug naar bovenTestaankoop steunt de aankomende Europese wet over ChatGPT
Om het gebied van kunstmatige intelligentie verder te reguleren, heeft de Europese Unie gewerkt aan regelgeving met betrekking tot de verantwoordelijkheid van AI-systemen, inclusief generatieve AI zoals ChatGPT.
"Wetgevers moeten eisen dat de resultaten van elk generatief AI-systeem veilig, eerlijk en transparant zijn voor consumenten."
De verordening voorziet in het reguleren van zogenaamde "hoogrisico" systemen, zoals ChatGPT, of zijn nog geavanceerdere nieuwe versie GPT-4.
Voor Testaankoop is dit een positieve ontwikkeling omdat consumenten controle moeten kunnen houden over hun privacy en persoonsgegevens, terwijl ze vertrouwen behouden in technologische innovatie.
Tegelijkertijd heeft de BEUC (Bureau Européen des Unions de Consommateurs) al geschreven naar autoriteiten die verantwoordelijk zijn voor consumentenveiligheid en -bescherming, waarin ze vragen om onderzoeken te openen vanwege de omvang en snelheid van de implementatie van generatieve AI-modellen, zoals ChatGPT. Het Europees Comité voor Gegevensbescherming heeft al een werkgroep opgericht om ChatGPT te onderzoeken.
Dus, het is iets om in de gaten te houden, en ondertussen: Wees voorzichtig!
Terug naar boven