Want to create interactive content? It’s easy in Genially!

Get started free

Oral.pdf.pdf

fleur gossa

Created on January 28, 2026

Start designing with a free template

Discover more than 1500 professional designs like these:

Decisions and Behaviors in the Workplace

Tangram Game

Process Flow: Corporate Recruitment

Weekly Corporate Challenge

Wellbeing and Healthy Routines

Match the Verbs in Spanish: Present and Past

Planets Sorting Game

Transcript

L’IA génératrice de contenus préjudiciables (deepfakes et abus) L’intelligence artificielle générative constitue aujourd’hui une rupture majeure dans les usages numériques. Grâce aux techniques d’apprentissage automatique, elle permet de produire des textes, des images, des voix ou des vidéos d’un réalisme tel qu’ils peuvent être confondus avec la réalité. Parmi ces technologies, les deepfakes occupent une place

particulièrement préoccupante. Issu de la contraction de deep learning et de fake, le deepfake est qualifié en droit européen d’« hypertrucage ». Le règlement sur l’intelligence artificielle adopté en 2024 le définit comme un contenu audio, visuel ou audiovisuel généré ou manipulé par l’IA, présentant une ressemblance trompeuse avec la réalité et susceptible d’être perçu comme authentique. Par cette capacité à créer une illusion du réel, le deepfake brouille profondément la frontière

entre vérité et fiction. Si ces technologies peuvent avoir des usages légitimes, notamment dans les domaines artistique, éducatif ou publicitaire, elles sont aujourd’hui largement détournées à des fins abusives. Les deepfakes sont utilisés pour diffuser des contenus pornographiques non consentis, usurper des identités, commettre des escroqueries ou manipuler l’opinion publique, portant ainsi gravement atteinte à la dignité humaine, à la vie privée et à la

réputation des victimes. Face à ces dérives, le droit pénal se trouve directement interpellé. Conçu pour sanctionner des comportements humains identifiables, il est confronté à des difficultés inédites liées à l’identification des auteurs, à la preuve de la falsification et à la diffusion massive des

contenus. Dès lors, une question essentielle se pose : Le développement de l’intelligence artificielle générative, entre innovations prometteuses et usages abusifs tels que les deepfakes, conduit-il à une reconfiguration des mécanismes juridiques de protection des victimes de

contenus préjudiciables ? I.Aspect positif: Ajouter un phrase de transition Dans les domaines du cinéma, de la télévision ou encore du jeu vidéo, les trucages numériques ont toujours occupé une place centrale, notamment dans le cadre des effets spéciaux. Les deepfakes s’inscrivent donc dans une continuité technologique plutôt que dans une rupture totale. Ils constituent aujourd’hui une technique supplémentaire au service

de la création audiovisuelle. De nombreux outils sont désormais disponibles pour le grand public. Des logiciels spécialisés comme FakeApp (logiciel qui sert à modifier le visage des acteurs présents dans des vidéos) ou DeepFaceLab(conçu pour permettre aux utilisateurs de créer des vidéos où le visage d'une personne est remplacé par celui d'une autre) facilitent et accélèrent la création d’images et de vidéos de plus en plus réalistes. Ces avancées permettent d’obtenir

des résultats impressionnants avec moins de données et de moyens techniques qu’auparavant, ouvrant la possibilité pour les amateurs d’une utilisation plus simple. Sur le plan professionnel, les deepfakes peuvent également représenter un avantage pour les artistes et les entreprises. Cette technologie permet, par exemple, à un acteur d’apparaître dans des publicités sans avoir à se déplacer en studio, à apprendre une nouvelle langue ou à modifier son accent. Un exemple marquant est celui de la série française Plus belle la vie, diffusée sur France 3, qui a eu recours au deepfake en 2020, pendant la période de la Covid-19. Cette technologie a permis de pallier l’absence d’une comédienne contrainte de s’éloigner du plateau en raison de la pandémie, tout en assurant

la continuité de la production. II.Aspects négatifs Toutefois, si l’intelligence artificielle générative est fréquemment présentée comme un outil de créativité et d’efficacité, son développement révèle des dérives particulièrement préoccupantes, dont les deepfakes constituent l’une des manifestations les plus significatives. Ces usages entraînent une dissociation croissante entre la personne et son identité numérique, désormais reproductible et diffusable indépendamment de toute volonté individuelle. Une telle évolution fragilise les mécanismes juridiques classiques de protection de l’image, de la voix et, plus largement, des droits de la personnalité, en particulier lorsque cette reproduction s’opère sans consentement. L’une des atteintes les plus graves concerne la génération de contenus sexuels non consentis. Les deepfakes permettent de produire des images ou des vidéos d’un réalisme tel qu’elles donnent l’illusion d’une scène authentique, alors même qu’aucun fait réel n’a jamais existé. Cette capacité à fabriquer une réalité artificielle porte une atteinte directe à la dignité et à l’intégrité des personnes concernées, d’autant plus difficile à combattre que la victime se trouve contrainte de démontrer l’inexistence de faits qui, en apparence, semblent

établis. Cette problématique s’est illustrée de manière très récente avec l’affaire Grok, le chatbot développé par la société xAI et intégré à la plateforme X. En janvier 2026, plusieurs enquêtes ont révélé que l’outil avait permis la génération d’images sexualisées représentant des femmes et parfois des mineurs, à partir de simples photographies accessibles en ligne, sans le consentement des personnes concernées. Face à l’ampleur du phénomène, l’Union européenne a ouvert une enquête afin d’examiner les manquements éventuels de xAI à ses obligations en matière de protection des personnes et de régulation des contenus générés

par intelligence artificielle. Au-delà des atteintes individuelles, les deepfakes constituent également un vecteur préoccupant de désinformation politique, en ce qu’ils permettent de fabriquer des contenus crédibles susceptibles d’altérer la perception du débat public. Ils sont enfin utilisés comme un outil efficace d’usurpation d’identité et de fraude, comme l’illustre l’affaire de mars 2019, dans laquelle une imitation vocale générée par IA a permis d’obtenir frauduleusement environ 220 000 euros en se faisant passer pour un PDG, révélant ainsi la capacité des deepfakes à contourner des mécanismes de confiance

historiquement attachés à la voix.

III. Réglementation / Arsenal juridique Face à ces atteintes multiples et à la diffusion massive de contenus préjudiciables rendue possible par les deepfakes, le droit a été conduit à adapter son arsenal juridique afin de renforcer la protection des victimes et d’encadrer plus strictement les usages de

l’intelligence artificielle générative. En droit français, cette adaptation s’est traduite par l’adoption de la loi SREN du 21 mai 2024, qui modifie l’infraction de montage prévue à l’article 226-8 du code pénal afin de l’adapter explicitement aux deepfakes. Est désormais puni d’un an d’emprisonnement et de 15 000 euros d’amende le fait de porter à la connaissance du public ou d’un tiers un contenu visuel ou sonore généré par traitement algorithmique représentant l’image ou la voix d’une personne, sans son autorisation, lorsque le caractère artificiel du contenu n’apparaît pas de manière évidente ou n’est pas expressément mentionné. Lorsque l’infraction est commise sur les réseaux sociaux, les peines sont aggravées à deux ans d’emprisonnement et 45 000 euros d’amende. La logique retenue par le législateur est alternative : l’absence de diffusion, le consentement de la personne concernée ou l’identification manifeste du caractère artificiel du contenu permettent d’écarter l’incrimination. Surtout, la loi SREN crée une infraction spécifique de deepfake à caractère sexuel, réprimée de deux ans d’emprisonnement et 60 000 euros d’amende, portées à trois ans et 75 000 euros lorsque l’infraction est commise en ligne. Contrairement au délit de deepfake « simple », le seul fait de porter à la connaissance d’un tiers un montage sexuel sans consentement

suffit ici à caractériser l’infraction. Au niveau européen, le règlement sur l’intelligence artificielle adopté en mai 2024 impose une obligation de transparence : tout deepfake doit indiquer explicitement qu’il a été généré ou modifié par une IA. Cette obligation connaît toutefois des exceptions, notamment pour les usages autorisés par la loi ou les œuvres manifestement artistiques, et ne s’applique pas aux personnes physiques agissant dans un cadre strictement personnel et non

professionnel. Conclusion

En définitive, l’essor des deepfakes révèle une fragilisation accrue des mécanismes juridiques de protection des victimes, du fait de la capacité de l’intelligence artificielle générative à produire des atteintes réalistes et rapidement diffusées. Si le droit s’adapte progressivement, la garantie effective

des droits demeure un chantier évolutif.

Sources : - - -

https://www.app.asso.fr/propriete-intellectuelle/deepfake-enjeux-techniques-juridiques-et-ethiqde l'Enfancehttps://www.fondation-enfance.org › 2024/10

ues.html L'IA https://journals.openedition.org/revdh/9747

générative,

nouvelle

arme

la

pédocriminalitéFondation

pour

- - Grok:

https://www.wipo.int/fr/web/wipo-magazine/articles/artificial-intelligence-deepfakes-in-the-entehttps://www.app.asso.fr/propriete-intellectuelle/deepfake-enjeux-techniques-juridiques-et-ethiq

rtainment-industry-42620

ues.html https://www.liberation.fr/international/europe/femmes-et-enfants-denudes-par-grok-lunion-europeenne-ouvre-une-enquete-contre-lia-de-x-20260126_D4KYQWOLV5CY5OKGUTEFKBIVG

A/ faude PDG : https://www.lesechos.fr/2019/11/fraude-30-quand-lia-imite-la-voix-du-pdg-2031892 https://www.app.asso.fr/propriete-intellectuelle/deepfake-enjeux-techniques-juridiques-et-ethiques.htm