Want to create interactive content? It’s easy in Genially!

Get started free

RISICO'S EN ETHISCHE IMPLICATIES

DOWA1 - OO

Created on September 5, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Practical Interactive Image

Akihabara Square Interactive Image

Akihabara Interactive Image

Essential Interactive Image

Interactive Team Image

Image with Audio

Image with interactive hotspots

Transcript

RISICO'S EN ETHISCHE IMPLICATIES

Bias

Sociale ongelijkheid en unfairness

Uniformiteit

Grotere ecologische voetafdruk

Schending van auteursrecht / plagiaat

Onbetrouwbaarheid en fake nieuws

Impact op competenties (verwerven)

Vervaging grens mens – machine

Schending van privacy

Grotere ecologische voetafdruk

Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.

Inclusie

  • Je bent je bewust van bepaalde aannames in zowel de eigen input in de tools als in de gegenereerde output. Je kan mogelijke stereotypen, vooroordelen en bias in de eigen input detecteren en corrigeren. Je herkent stigmatiserende, discriminerende, onrechtvaardige of onethische output.   
  • Je bent je bewust van de bestaande digitale kloof bij collega’s en studenten (bijv. toegankelijkheid van de generatieve-AI-tools voor specifieke doelgroepen, AI-kennis, …)

Ecologische impact

Generatieve-AI-systemen verbruiken erg veel energie. Weet dat je, telkens je een generatieve-AI-tool gebruikt, een pak meer energie verbruikt dan wanneer je een gewone zoekmachine gebruikt. Kies bij enkelvoudige zoekopdrachten een zoekmachine zoals Google of vertaal korte teksten via vertaalsoftware.

Sociale ongelijkheid en unfairness

Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen. De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.

Schending van auteursrecht / plagiaat

De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.

Betrouwbaarheid & kritische zin

  • Je kent de werking van generatieve-AI-tools: ze weten dat de systemen output genereren op basis van patroonherkenning en dus niet kunnen redeneren. Ze weten dat gegenereerde informatie inhoudelijk onbetrouwbaar kan zijn. 
  • Je toetst de output van GAI altijd kritisch af aan eigen (vakinhoudelijke) kennis. 

Bias

De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.

Grotere ecologische voetafdruk

Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.

Impact op competenties (verwerven)

De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.

Vervaging grens – machine

Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.

Vervaging grens mens – machine

Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.

Bias

De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.

Uniformiteit

Woorden en zinnen die vaker gebruikt worden, zijn meer aanwezig in de data van de tools, en zullen dus ook statistisch gezien meer voorkomen in de output. Hoe meer we AI gebruiken om teksten te schrijven, hoe meer ze op elkaar beginnen te lijken. Zo krijg je eenheidsworst in inhoud en vorm. Afhankelijk van de toepassing kan het belangrijk zijn maatregelen te nemen om zowel eigenheid als creativiteit te waarborgen.

Onbetrouwbaarheid / fake nieuws

De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.

Schending van privacy

In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.

Impact op competenties (verwerven)

De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.

Vervaging grens – machine

Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.

Impact op competenties (verwerven)

De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.

Grotere ecologische voetafdruk

Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.

Wetenschappelijke integriteit

In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.

Sociale ongelijkheid en unfairness

Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen. De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.

Sociale ongelijkheid en unfairness

Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen. De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.

Onbetrouwbaarheid / fake nieuws

De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.

Privacy & databeheer

Je voert geen (privacy)gevoelige informatie in de generatieve-AI-tools in. Onder (privacy)gevoelige informatie verstaan we bedrijfsinformatie, persoonsgegevens van studenten, van respondenten, ….  Het is strafbaar om die data die onder de algemene verordening gegevensbescherming (AVG) vallen in te voeren of te delen met zulke systemen, tenzij er expliciete afspraken zijn hoe die informatie wordt verwerkt.

Wetenschappelijke integriteit

In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.

Schending van auteursrecht / plagiaat

De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.

Onbetrouwbaarheid en fake news

De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.

Verantwoordelijkheid

Bij gebruik van GAI blijf je verantwoordelijk voor het eigen werk.

Schending van auteursrecht / plagiaat

De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.

Wetenschappelijke integriteit

  • Auteursrecht: Je dient de gegenereerde output van de generatieve-AI-tool niet letterlijk in als eigen werk zonder vermelding van de originele bronnen die aan de oorsprong liggen van de output van de tool, en zorgen er zo voor dat de auteursrechten gerespecteerd worden.   
  • Plagiaat: Je controleert de gegenereerde bronnen.

Impact op competenties (verwerven)

De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.

Bias

De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.

Impact op competenties (verwerven)

De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.