RISICO'S EN ETHISCHE IMPLICATIES
Bias
Sociale ongelijkheid en unfairness
Uniformiteit
Grotere ecologische voetafdruk
Schending van auteursrecht / plagiaat
Onbetrouwbaarheid en fake nieuws
Impact op competenties (verwerven)
Vervaging grens mens – machine
Schending van privacy
Grotere ecologische voetafdruk
Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
Inclusie
- Je bent je bewust van bepaalde aannames in zowel de eigen input in de tools als in de gegenereerde output. Je kan mogelijke stereotypen, vooroordelen en bias in de eigen input detecteren en corrigeren. Je herkent stigmatiserende, discriminerende, onrechtvaardige of onethische output.
- Je bent je bewust van de bestaande digitale kloof bij collega’s en studenten (bijv. toegankelijkheid van de generatieve-AI-tools voor specifieke doelgroepen, AI-kennis, …)
Ecologische impact
Generatieve-AI-systemen verbruiken erg veel energie. Weet dat je, telkens je een generatieve-AI-tool gebruikt, een pak meer energie verbruikt dan wanneer je een gewone zoekmachine gebruikt. Kies bij enkelvoudige zoekopdrachten een zoekmachine zoals Google of vertaal korte teksten via vertaalsoftware.
Sociale ongelijkheid en unfairness
Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen.
De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.
Schending van auteursrecht / plagiaat
De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.
Betrouwbaarheid & kritische zin
- Je kent de werking van generatieve-AI-tools: ze weten dat de systemen output genereren op basis van patroonherkenning en dus niet kunnen redeneren. Ze weten dat gegenereerde informatie inhoudelijk onbetrouwbaar kan zijn.
- Je toetst de output van GAI altijd kritisch af aan eigen (vakinhoudelijke) kennis.
Bias
De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.
Grotere ecologische voetafdruk
Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Vervaging grens – machine
Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.
Vervaging grens mens – machine
Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.
Bias
De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.
Uniformiteit
Woorden en zinnen die vaker gebruikt worden, zijn meer aanwezig in de data van de tools, en zullen dus ook statistisch gezien meer voorkomen in de output. Hoe meer we AI gebruiken om teksten te schrijven, hoe meer ze op elkaar beginnen te lijken. Zo krijg je eenheidsworst in inhoud en vorm. Afhankelijk van de toepassing kan het belangrijk zijn maatregelen te nemen om zowel eigenheid als creativiteit te waarborgen.
Onbetrouwbaarheid / fake nieuws
De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.
Schending van privacy
In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Vervaging grens – machine
Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Grotere ecologische voetafdruk
Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
Wetenschappelijke integriteit
In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.
Sociale ongelijkheid en unfairness
Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen.
De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.
Sociale ongelijkheid en unfairness
Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen. De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.
Onbetrouwbaarheid / fake nieuws
De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.
Privacy & databeheer
Je voert geen (privacy)gevoelige informatie in de generatieve-AI-tools in. Onder (privacy)gevoelige informatie verstaan we bedrijfsinformatie, persoonsgegevens van studenten, van respondenten, …. Het is strafbaar om die data die onder de algemene verordening gegevensbescherming (AVG) vallen in te voeren of te delen met zulke systemen, tenzij er expliciete afspraken zijn hoe die informatie wordt verwerkt.
Wetenschappelijke integriteit
In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.
Schending van auteursrecht / plagiaat
De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.
Onbetrouwbaarheid en fake news
De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.
Verantwoordelijkheid
Bij gebruik van GAI blijf je verantwoordelijk voor het eigen werk.
Schending van auteursrecht / plagiaat
De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.
Wetenschappelijke integriteit
- Auteursrecht: Je dient de gegenereerde output van de generatieve-AI-tool niet letterlijk in als eigen werk zonder vermelding van de originele bronnen die aan de oorsprong liggen van de output van de tool, en zorgen er zo voor dat de auteursrechten gerespecteerd worden.
- Plagiaat: Je controleert de gegenereerde bronnen.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Bias
De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
RISICO'S EN ETHISCHE IMPLICATIES
DOWA1 - OO
Created on September 5, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Practical Interactive Image
View
Akihabara Square Interactive Image
View
Akihabara Interactive Image
View
Essential Interactive Image
View
Interactive Team Image
View
Image with Audio
View
Image with interactive hotspots
Explore all templates
Transcript
RISICO'S EN ETHISCHE IMPLICATIES
Bias
Sociale ongelijkheid en unfairness
Uniformiteit
Grotere ecologische voetafdruk
Schending van auteursrecht / plagiaat
Onbetrouwbaarheid en fake nieuws
Impact op competenties (verwerven)
Vervaging grens mens – machine
Schending van privacy
Grotere ecologische voetafdruk
Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
Inclusie
Ecologische impact
Generatieve-AI-systemen verbruiken erg veel energie. Weet dat je, telkens je een generatieve-AI-tool gebruikt, een pak meer energie verbruikt dan wanneer je een gewone zoekmachine gebruikt. Kies bij enkelvoudige zoekopdrachten een zoekmachine zoals Google of vertaal korte teksten via vertaalsoftware.
Sociale ongelijkheid en unfairness
Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen. De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.
Schending van auteursrecht / plagiaat
De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.
Betrouwbaarheid & kritische zin
Bias
De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.
Grotere ecologische voetafdruk
Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Vervaging grens – machine
Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.
Vervaging grens mens – machine
Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.
Bias
De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.
Uniformiteit
Woorden en zinnen die vaker gebruikt worden, zijn meer aanwezig in de data van de tools, en zullen dus ook statistisch gezien meer voorkomen in de output. Hoe meer we AI gebruiken om teksten te schrijven, hoe meer ze op elkaar beginnen te lijken. Zo krijg je eenheidsworst in inhoud en vorm. Afhankelijk van de toepassing kan het belangrijk zijn maatregelen te nemen om zowel eigenheid als creativiteit te waarborgen.
Onbetrouwbaarheid / fake nieuws
De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.
Schending van privacy
In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Vervaging grens – machine
Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Grotere ecologische voetafdruk
Voor de ontwikkeling van de tools en het gebruik ervan is veel rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
Wetenschappelijke integriteit
In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.
Sociale ongelijkheid en unfairness
Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen. De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.
Sociale ongelijkheid en unfairness
Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand. Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen. De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald.
Onbetrouwbaarheid / fake nieuws
De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.
Privacy & databeheer
Je voert geen (privacy)gevoelige informatie in de generatieve-AI-tools in. Onder (privacy)gevoelige informatie verstaan we bedrijfsinformatie, persoonsgegevens van studenten, van respondenten, …. Het is strafbaar om die data die onder de algemene verordening gegevensbescherming (AVG) vallen in te voeren of te delen met zulke systemen, tenzij er expliciete afspraken zijn hoe die informatie wordt verwerkt.
Wetenschappelijke integriteit
In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacygevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.
Schending van auteursrecht / plagiaat
De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.
Onbetrouwbaarheid en fake news
De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkingen van de data waarop de antwoorden gebaseerd zijn. Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”. Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden.
Verantwoordelijkheid
Bij gebruik van GAI blijf je verantwoordelijk voor het eigen werk.
Schending van auteursrecht / plagiaat
De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt. Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.
Wetenschappelijke integriteit
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Bias
De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden. Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.