Volet 2
CAPSULE 1 - BALISES pour un usage éclairé et éthique de L’IA
Découvrez comment l’intelligence artificielle (IA) fonctionne, ce qu’elle apporte, mais aussi les enjeux critiques qu’elle soulève pour nos façons d’apprendre, de décider et de comprendre le monde.
Cliquez pour amorcer la capsule
Commencer
OBJECTIFS PÉDAGOGIQUES DE LA CAPSULE
Situer l’intelligence artificielle dans son contexte technologique et sociétal afin de mieux en cerner la portée et les enjeux.
Développer la capacité à interroger les promesses, les risques et les limites associés à son déploiement.
Mobiliser des repères de vigilance permettant d’intégrer l’IA dans les pratiques professionnelles et collectives de manière réfléchie.
Aperçu des activités d’apprentissage de la capsule
Apprenez, pratiquez et appliquez grâce à trois types d’activités complémentaires
Ressources internes
Ressources externes
Exercices pratiques
Comprendre les fondements de l’intelligence artificielle à travers des définitions, des exemples concrets et des explications accessibles.
Accéder à une sélection d’articles, de vidéos et de références spécialisées pour approfondir vos connaissances et diversifier vos points de vue.
Mettre en application vos acquis grâce à des activités interactives.
Équipe
Team
L’équipe de recherche et de conception pédagogique derrière cette capsule
Annie Chaloux Professeure agrégée à l’Université de Sherbrooke, Directrice du Climatoscope 360
Mathilde Germain Étudiante à la Maîtrise en environnement, type recherche, Auxiliaire de recherche
Elisabeth Fournier Professionnelle de recherche, Titulaire d’une maîtrise en environnement, cheminement politique appliquée
Claude Bruderlein Directeur, Centre de formation Frontline Associates
Cet icone vous permet de naviguer facilement entre les sections et d’explorer la capsule à votre rythme.
Révéler une astuce de navigation
TABLE DES MATIÈRES
01
L’ABC de l’IA
02
Un vide réglementaire autour de l’IA
Voici les 4 sections qui composent la capsule 1 Elles vous accompagnent dans une réflexion sur l’IA en mettant en avant les repères essentiels et les balises éthiques à garder en tête pour un usage éclairé.
03
Quelles vigilances face à l’IA ?
04
Résumé et ressources complémentaires
On distingue aujourd’hui deux grands horizons de l’intelligence artificielle : l’IA générale (IAG), encore théorique, et l’IA générative (IAg), déjà largement utilisée.
1. L’ABC de l’IA
Cliquez sur IAG ou IAg pour explorer ce qui les distingue.
L’intelligence artificielle est une branche de l’informatique qui développe des systèmes capables d’exécuter des tâches nécessitant normalement l’intelligence humaine. Message clé : l’IA n’est pas magique. C’est l’alliance de données massives, d’algorithmes puissants et de ressources de calcul qui rend ces technologies possibles.
IA Générale (IAG)
IA Générative (IAg)
Cliquez pour poursuivre sur l'ABC de l'IA
2. Un vide réglementaire autour de l’IA
Innovation plus rapide que la loi
Alors que les technologies d'IA se diffusent à grande vitesse, les cadres juridiques peinent à s’imposer. Ce n’est pas seulement une question de retard technique : plusieurs facteurs structurels expliquent pourquoi la régulation de l’IA reste partielle, fragmentée et parfois contestée. On peut en identifier quatre dimensions principales.
Une technologie transversale
Des régulations fragmentées
Explorez chaque dimension en cliquant sur les boutons
Une responsabilité reportée sur les acteurs
2. Un vide réglementaire autour de l’IA
Un « vide » à relativiser
Parler de vide réglementaire ne veut pas dire qu’il n’existe aucun encadrement de l’IA.Au Québec comme au Canada, le droit positif (lois et règlements formels) peine simplement à suivre le rythme de l’innovation. Mais au-delà du droit, plusieurs repères normatifs guident déjà le développement responsable de l’IA.
Directives gouvernementales (Québec/Canada)
Déclaration de Montréal
Explorez ces repères en glissant votre curseur sur les boutons
Principes de l’OCDE
Déclaration de Toronto
Recommandations de l’UNESCO
Elles montrent qu’au-delà de la loi, une régulation co-construite et évolutive cherche déjà à encadrer l’IA de manière responsable.
Testez vos connaissances
Mobilisez les informations vues précédemment pour répondre aux questions de l’ABC de l’IA. Cliquez sur chaque carte pour révéler la réponse.
Question 3
Parce qu’il n’existe pas encore de règles mondiales pour encadrer l’intelligence artificielle. Certaines initiatives régionales, comme l’AI Act en Europe, existent, mais elles restent limitées et aucune régulation internationale contraignante n’a été adoptée.
Question 2
Question 1
L’IA générale reste un horizon de recherche. En pratique, c’est presque toujours l’IA générative (comme GPT, Claude ou Gemini) qui est visée lorsque l’on parle d’IA aujourd’hui.
Bonne réponse : BExplication : L’IA générative ne comprend pas vraiment. Elle calcule la suite la plus probable jeton par jeton, selon son entraînement.
L’IA générative fonctionne en… A) Comprenant réellement le sens des mots B) Prédisant la suite la plus probable dans une séquence C) Copiant et recollant directement des phrases issues d’internet
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Pourquoi dit-on qu’il existe aujourd’hui un « vide réglementaire » autour de l’IA ?
Quand on parle d’«intelligence artificielle » aujourd’hui, à quel type d’IA fait-on principalement référence ?
Title
Title
Title
Write a brief description here
Write a brief description here
Write a brief description here
3. Quelles Vigilances face à l’IA ?
Yoshua Bengio, pionnier de l’intelligence artificielle et expert reconnu mondialement, alerte sur les risques que ces technologies font peser sur nos sociétés. Son message est clair : si l’IA ouvre des opportunités inédites, elle comporte aussi des dangers bien réels qu’il serait imprudent d’ignorer. Visionnez cette vidéo pour amorcer une réflexion sur les risques liés à l’IA.
3. Quelles Vigilances face à l’IA ?
La section qui suit présente cinq balises pour comprendre les risques liés à l’intelligence artificielle et adopter une posture éthique et responsable face à son usage.
1) les biais et l’absence de neutralité 2) les impacts cognitifs et intellectuels 3) les erreurs factuelles et hallucinations 4) l’empreinte environnementale 5) les inégalités d’accès
Révélez les cinq dimensions en cliquant ici
Poursuivez la capsule pour approfondir chacune de ces balises et renforcer votre vigilance dans l’usage de l’IA.
3. Quelles vigilances face à l’IA ?
Biais et absence de neutralité
1.Biais liés aux données
L’IA hérite des inégalités et stéréotypes présents dans les données utilisées pour son entraînement.
L’IA n’est pas exempte de biais. Ces biais ne sont pas de simples erreurs techniques : ils influencent la manière dont l’IA apprend, fonctionne et interagit avec nous.Comprendre ces mécanismes est essentiel pour adopter une posture critique et responsable face à son usage.
2. Biais liés au développement
Les choix techniques des concepteurs (variables, critères, tests) influencent directement le comportement du modèle.
3. Biais liés à l’interaction
Cliquez ici pour révéler 3 biais qui influencent l’IA.
Cliquez sur les icônes pour découvrir une brève explication
L’usage de l’IA peut renforcer les opinions des utilisateurs ou réduire leur esprit critique.
3. Quelles vigilances face à l’IA ?
impacts cognitifs
L’IA rend nos tâches plus rapides et plus simples. Pourtant, à mesure qu’on s’y habitue, elle peut réduire certaines de nos capacités fondamentales : décider, douter, inventer. Le risque n’apparaît pas d’un coup, il s’installe discrètement au fil du temps.
Cliquez sur les pour voir comment la perte cognitive s’installe et comment garder une posture active
Décision et autonomie
Pensée critique
Analyse et créativité
L’IA simplifie nos choix, mais une dépendance excessive affaiblit le jugement et réduit l’autonomie.
Les réponses de l’IA paraissent fiables, mais sans vérification elles font disparaître le doute et fragilisent l’esprit critique.
L’IA peut inspirer et structurer, mais un usage excessif uniformise nos productions et appauvrit la créativité.
Garder une posture active, c’est continuer à exercer son discernement.
Garder une posture active, c’est questionner et comparer systématiquement.
Garder une posture active, c’est nourrir sa créativité et croiser les points de vue.
3. Quelles vigilances face à l’IA ?
Manifestations des hallucinations
erreurs factuelles & hallucinations
Les hallucinations se traduisent par des contenus inventés ou inexacts. Elles brouillent la frontière entre ce qui est plausible et ce qui est réellement fondé.
Cliquez ci-dessous pour explorer des exemples.
Info
Conséquences des hallucinations
L’IA est conçue pour produire des réponses fluides et crédibles. Mais cette apparence peut être trompeuse : il arrive qu’elle invente des informations qu'elle fournit. Ces productions fausses mais plausibles sont appelées hallucinations.
Parce qu’elles paraissent crédibles, ces erreurs peuvent fausser la compréhension, propager de fausses connaissances et fragiliser la confiance dans l’IA.
Cliquez ci-dessous pour en savoir plus sur leurs impacts.
Cliquez sur le bouton pour approfondir votre compréhension des hallucinations en IA.
Info
3. Quelles vigilances face à l’IA ?
Empreinte environnementale
L’IA générative consomme d’énormes quantités d’énergie et d’eau. À grande échelle, cette empreinte environnementale devient impossible à ignorer.
Pour mesurer concrètement l’ampleur de cette empreinte, répondez aux questions suivantes
Cliquez ici pour amorcer les explications
Derrière l’IA, il y a des centres de données bien réels
Cliquez ici pour afficher la prochaine question
Cliquez ici pour afficher la prochaine question
Leur fonctionnement exige beaucoup d’électricité et d’eau
L’entraînement des grands modèles mobilise des ressources considérables
Une requête isolée compte peu… mais des milliards s’accumulent
Cela entraîne des émissions de GES et une pression sur les ressources locales
Derrière chaque innovation, il y a aussi un coût écologique
3. Quelles vigilances face à l’IA ?
Inégalités d’accès
Une connexion stable, une bonne bande passante et des appareils récents sont nécessaires pour interagir efficacement avec l’IA. Ces conditions restent inégales : dans de nombreux pays du Sud global, mais aussi dans certaines zones rurales ou précaires, elles sont insuffisantes. Ces écarts renforcent la fracture numérique et limitent l’accès équitable aux opportunités offertes par l’IA.
L’IA se présente comme une technologie universelle, mais son accès reste inégal. Ces écarts soulèvent un enjeu central : éviter que l’IA accentue les fractures déjà existantes.
Les versions gratuites de l’IA existent, mais elles sont limitées en vitesse, fiabilité et fonctionnalités. Les modèles les plus puissants sont réservés aux abonnements payants ou aux API coûteuses, accessibles surtout aux organisations bien dotées. Cela crée une hiérarchie d’accès : une « IA de base » pour la majorité, et une « IA premium » pour ceux qui peuvent investir, renforçant les inégalités éducatives, économiques et sociales.
Les modèles sont surtout entraînés en anglais, ce qui assure des réponses plus riches et fiables dans cette langue. Les autres langues, même très parlées, produisent souvent des résultats moins précis ou plus stéréotypés, et les langues minoritaires sont encore plus désavantagées. Ce déséquilibre n’est pas neutre : il reflète et amplifie une domination culturelle anglophone qui limite la diversité des savoirs représentés.
Langues et cultures
Infrastructures numériques
Coût et modèles économiques
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Sans connexion fiable, l’accès à l’IA reste limité.
Un accès de qualité dépend des moyens financiers.
Les performances de l’IA varient selon la langue
Title
Title
Title
Cliquez sur le bounton pour dévoilez trois dimensions de ces inégalités
Prenez connaissance des dimensions, puis cliquez en bas à droite pour retourner les cartes et approfondir chacune d’elles.
Write a brief description here
Write a brief description here
Write a brief description here
4. résumé & Ressources complémentaires
Cette section présente synthétiquement les cinq vigilances clés. Si vous souhaitez aller plus loin, des ressources complémentaires sont à votre disposition pour approfondir les thèmes qui vous intéressent.
Cliquez sur les pastilles pour explorer les ressources associées à chaque vigilance
Erreurs factuelles & hallucinations
Impacts cognitifs
Biais & absence de neutralité
Inégalités d’accès
Empreinte environnementale
L’usage intensif de l’IA peut réduire l’esprit critique et créer une dépendance.
Former et utiliser des modèles d’IA consomme beaucoup d’énergie et a un coût carbone.
Des barrières linguistiques, techniques et financières limitent l’accès équitable à l’IA.
Quand l’IA produit des réponses convaincantes mais fausses.
Quand l’IA reflète les stéréotypes ou inégalités présents dans ses données.
Pour conclure la capsule, cliquez sur la pastille ci-dessous pour révéler le message de fin
À garder en tête
partenaires du projet
Projet de vulgarisation scientifique et de mobilisation des connaissances en français qui met en valeur les recherches sur les changements climatiques.
Centre de formation spécialisé en négociation collaborative et en gestion de conflits, utilisant des approches innovantes appuyées par l’IA.
Université reconnue pour son engagement envers l’innovation, le développement durable et la formation pratique.
Lien
Lien
Lien
Ressources : Hallucination de L'IA
Cliquez sur les ressources ci-dessous pour y accéder.
« Why Language Models Hallucinate ». Discussion sur les solutions proposées par OpenAI et les dilemmes économiques et techniques liés à la réduction des hallucinations.
Article
« ChatGPT : la proposition d’OpenAI pour éviter les hallucinations pourrait tuer son propre chatbot » Analyse montrant que les hallucinations des grands modèles de langage sont mathématiquement inévitables.
Article
« Why Large Language Models Hallucinate » Explication claire des différents types d’hallucinations des LLMs, de leurs causes, et conseils pratiques pour les limiter.
Vidéo
Les erreurs factuelles & les hallucinstions
Comment ça se manifeste ?
Les hallucinations se traduisent par plusieurs formes d’erreurs factuelles : 1. Références inventées L’IA peut créer de toutes pièces des articles, des auteurs ou des titres académiques. Ces références paraissent crédibles mais n’existent pas, ce qui peut induire en erreur un lecteur peu vigilant. 2. Faits inexacts Dates, chiffres, événements ou lois inexistantes peuvent être générés avec aplomb. Comme l’IA ne vérifie pas les faits mais prédit des suites probables, elle peut “fabriquer” de l’information. 3. Explications trompeuses Même lorsqu’elle ne donne pas de chiffres faux, l’IA peut combiner des notions justes de manière incohérente, produisant une réponse qui semble logique mais qui repose sur des associations erronées.
Ressources : Inégalités d’accès
Cliquez sur les ressources ci-dessous pour y accéder.
« How AI’s Failure on Linguistic Diversity is Deepening Global Inequality » L’article montre comment le manque de diversité linguistique en IA renforce les inégalités mondiales, mais souligne aussi les initiatives locales, notamment africaines, pour bâtir des modèles inclusifs et durables
« Connectivity for AI enabled cities – A field survey based study of emerging economies » Cet article montre que sans réseaux fiables, rapides et abordables, l’IA urbaine reste hors de portée, surtout dans les pays émergents. Il rappelle que l’accès aux infrastructures est une condition essentielle pour réduire les inégalités d’usage.
Article
Article
« AI Chatbots and Linguistic Injustice » Cet article montre ue les chatbots d’IA, dominés par l’anglais, accentuent les inégalités linguistiques. Il appelle à élargir les données d’entraînement et à intégrer la diversité culturelle pour rendre l’IA plus inclusive.
Article
Innovation plus rapide que la loi
Les modèles d’IA se développent et se diffusent à une vitesse fulgurante, portée par des entreprises privées qui publient de nouvelles versions en quelques mois. En comparaison, les processus législatifs demandent des années de débats, de consultations et de compromis. Ce décalage crée un retard structurel entre l’innovation et la régulation.
Des régulations fragmentées
L’Union européenne a ouvert la voie avec l’AI Act, qui classe les usages de l’IA selon leur niveau de risque. Mais ce texte est limité à l’Europe, sa mise en œuvre sera progressive, et il ne s’applique pas ailleurs. Dans le reste du monde, on trouve surtout des lois nationales disparates (États-Unis, Chine) ou des initiatives volontaires (OCDE, UNESCO, G7), sans coordination globale.
Pour en apprendre plus sur l'AI ACT, consultez cette ressource
ABC de l'IA
Avant d’aller plus loin : distinguer l’IA, les modèles et l’IA générative
IA GÉNÉRATIVE
- Modèles entraînés sur d’immenses ensembles de données (ex. GPT, Claude, Gemini)
- Produisent du contenu nouveau : texte, image, son.
- Fonctionnent par prédiction statistique (la suite la plus probable, jeton par jeton)
- Ne « comprennent » pas : ils imitent le langage et la créativité humaine
L'IA regroupe les techniques qui permettent à une machine d’apprendre, de raisonner ou de créer à partir de données. Parmi elles, on trouve l’IAg, qui se distingue par sa capacité à produire du contenu nouveau (texte, image, son ou vidéo) à partir des données sur lesquelles elle a été entraînée. Pour y parvenir, l’IAg s’appuie sur des modèles d’apprentissage : des systèmes statistiques capables d’identifier des régularités et de générer des résultats cohérents. Les grands modèles de langage (LLM) sont une forme d’IA générative spécialisée dans le texte. Ce sont eux qui alimentent les outils comme ChatGPT ou Gemini. C’est sur ces modèles que cette capsule s’attarde, car ils sont aujourd’hui les plus répandus et les plus faciles à utiliser.
Cliquez sur le bouton audio pour écouter l’explication complète
Cliquez sur les boutons ci-dessous pour explorer les ressources et comprendre concrètement le fonctionnement de l’IA générative.
Outil : Tokenizer
Vidéo : « How AI Models Understand Language »
Découvrez comment un texte est découpé en jetons (token)
Cliquez pour poursuivre sur l'IAg
Ressources : Biais de l'IA
Cliquez sur les ressources ci-dessous pour y accéder.
« Biais psychosociaux - Une I.A. humaine, trop humaine » Cet épisode du balado I.A. Café explore comment les intelligences artificielles reproduisent nos biais et comportements humains, révélant les limites éthiques d’une IA conçue à notre image.
Balado
« Qu’est-ce que le biais de l’IA ?» Cet article d'IBM vulgarise les différents types de biais (de données, cognitifs, algorithmiques) et leurs impacts concrets dans des domaines comme la santé, le recrutement ou la justice, tout en proposant des pistes de gouvernance responsable.
Article
«AI Is Dangerous, but Not for the Reasons You Think» Sasha Luccioni, experte en IA et climat, explique que les dangers réels de l’IA résident dans ses biais intégrés et son empreinte environnementale. Voir minute 6 pour son analyse des biais.
TED Talk
Une technologie transversale
L’IA ne se limite pas à un secteur : elle impacte la santé, l’éducation, la finance, la culture, la sécurité… Chaque domaine pose des enjeux juridiques différents. Faut-il une régulation universelle ou des régulations sectorielles ? Cette transversalité rend très difficile l’adoption d’un cadre unique et cohérent.
Les erreurs factuelles & les hallucinstions
Comment ça se manifeste ?
Ces erreurs ne sont pas anodines : elles ont des conséquences concrètes. Un risque de crédibilité Parce que les hallucinations sont bien formulées, elles paraissent convaincantes. Un utilisateur pressé ou inexpérimenté peut les prendre pour argent comptant. Un impact sur l’éducation et la recherche Si elles sont utilisées sans vérification, elles peuvent propager des connaissances fausses, fausser des travaux scolaires ou universitaires, et décrédibiliser l’apprentissage. Des enjeux professionnels et sociétaux Dans la santé, le droit ou la communication, une erreur factuelle peut avoir des effets graves : mauvaise décision, perte de confiance, voire impacts éthiques et légaux. Une confiance fragilisée Plus les hallucinations se multiplient, plus elles minent la crédibilité des outils d’IA. Cela peut freiner leur adoption, même dans les cas où elles seraient réellement utiles.
Une responsabilité reportée sur les acteurs
En l’absence de cadre international, la vigilance repose largement sur les usagers, les entreprises et les institutions. Certaines développent des chartes éthiques ou des codes internes, mais sans garantie de cohérence ni de transparence. Cette responsabilité décentralisée crée un risque d’inégalités : certains acteurs se dotent de garde-fous solides, d’autres non.
Ressources : Impacts cognitifs
Cliquez sur les ressources ci-dessous pour y accéder.
« ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study » Entrevue avec Nataliya Kosmyna, chercheuse au MIT Media Lab. Son étude révèle que l’usage répété de ChatGPT réduit l’engagement cérébral, favorise la paresse intellectuelle et fragilise l’esprit critique des utilisateurs
Entrevue
« IA générative : le risque de l’atrophie cognitive» Dans cet entretien avec Polytechnique Insights, le chercheur Ioan Roxin alerte sur les effets cognitifs d’un usage excessif de l’IA générative, qui peut affaiblir mémoire, attention et raisonnement. Il appelle à un usage plus conscient et critique de ces outils.
Entrevue
« Is ChatGPT hurting our critical thinking skills? » Épisode avec Celia Ford, journaliste scientifique et neuroscientifique, qui explore comment l’usage d’IA comme ChatGPT peut affaiblir l’esprit critique et propose des pistes pour protéger nos capacités cognitives.
Podcast
Ressources : Empreinte environnementale
Cliquez sur les ressources ci-dessous pour y accéder.
« Mesure de l'impact environnemental de ChatGPT » Ce premier épisode d’une série explore avec Anne-Laure Ligozat les bases du bilan carbone de l’IA : comment mesurer les émissions de GES et les impacts environnementaux de ChatGPT tout au long de son cycle de vie.
Balado
« Explained: Generative AI’s environmental impact » Cet article examine les conséquences environnementales de l’IA générative : forte consommation d’électricité, besoins importants en eau pour refroidir les centres de données, et empreinte carbone liée à la fabrication du matériel
Article
« Encadrement de l’IA et transition climatique » Les experts soulignent quatre priorités : mettre l’IA au service de l’environnement, éviter le technosolutionnisme, libérer les données publiques et mesurer l’empreinte écologique des systèmes d’IA.
Notes d'atelier
L’IA est un outil puissant, mais non neutre. En comprenant ses mécanismes, ses limites et ses impacts, vous êtes mieux outillés pour l’utiliser de façon éclairée et responsable. La vigilance n’est pas un frein : elle est la condition pour tirer pleinement parti de ces technologies.
ABC de l'IA
IA Générale
- C’est l’idée d’une intelligence artificielle capable de raisonner, d’apprendre et de s’adapter à n’importe quelle tâche cognitive, au même titre qu’un humain.
- Elle demeure théorique : aucun système actuel ne possède cette capacité.
- Horizon souvent évoqué dans la science-fiction, mais objet de recherches prospectives.
Cliquez sur le bouton audio pour écouter l’explication complète
Explorez ces ressources pour mieux comprendre l'IAG
Article : « Artificial General Intelligence (AGI) for Education »
Vidéo : « What is artificial general intelligence ?»
2.1 - Balises et repères éthiqes de l'IA
Annie Chaloux
Created on September 22, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Vision Board
View
SWOT Challenge: Classify Key Factors
View
Explainer Video: Keys to Effective Communication
View
Explainer Video: AI for Companies
View
Corporate CV
View
Flow Presentation
View
Geographical Challenge: Drag to the map
Explore all templates
Transcript
Volet 2
CAPSULE 1 - BALISES pour un usage éclairé et éthique de L’IA
Découvrez comment l’intelligence artificielle (IA) fonctionne, ce qu’elle apporte, mais aussi les enjeux critiques qu’elle soulève pour nos façons d’apprendre, de décider et de comprendre le monde.
Cliquez pour amorcer la capsule
Commencer
OBJECTIFS PÉDAGOGIQUES DE LA CAPSULE
Situer l’intelligence artificielle dans son contexte technologique et sociétal afin de mieux en cerner la portée et les enjeux.
Développer la capacité à interroger les promesses, les risques et les limites associés à son déploiement.
Mobiliser des repères de vigilance permettant d’intégrer l’IA dans les pratiques professionnelles et collectives de manière réfléchie.
Aperçu des activités d’apprentissage de la capsule
Apprenez, pratiquez et appliquez grâce à trois types d’activités complémentaires
Ressources internes
Ressources externes
Exercices pratiques
Comprendre les fondements de l’intelligence artificielle à travers des définitions, des exemples concrets et des explications accessibles.
Accéder à une sélection d’articles, de vidéos et de références spécialisées pour approfondir vos connaissances et diversifier vos points de vue.
Mettre en application vos acquis grâce à des activités interactives.
Équipe
Team
L’équipe de recherche et de conception pédagogique derrière cette capsule
Annie Chaloux Professeure agrégée à l’Université de Sherbrooke, Directrice du Climatoscope 360
Mathilde Germain Étudiante à la Maîtrise en environnement, type recherche, Auxiliaire de recherche
Elisabeth Fournier Professionnelle de recherche, Titulaire d’une maîtrise en environnement, cheminement politique appliquée
Claude Bruderlein Directeur, Centre de formation Frontline Associates
Cet icone vous permet de naviguer facilement entre les sections et d’explorer la capsule à votre rythme.
Révéler une astuce de navigation
TABLE DES MATIÈRES
01
L’ABC de l’IA
02
Un vide réglementaire autour de l’IA
Voici les 4 sections qui composent la capsule 1 Elles vous accompagnent dans une réflexion sur l’IA en mettant en avant les repères essentiels et les balises éthiques à garder en tête pour un usage éclairé.
03
Quelles vigilances face à l’IA ?
04
Résumé et ressources complémentaires
On distingue aujourd’hui deux grands horizons de l’intelligence artificielle : l’IA générale (IAG), encore théorique, et l’IA générative (IAg), déjà largement utilisée.
1. L’ABC de l’IA
Cliquez sur IAG ou IAg pour explorer ce qui les distingue.
L’intelligence artificielle est une branche de l’informatique qui développe des systèmes capables d’exécuter des tâches nécessitant normalement l’intelligence humaine. Message clé : l’IA n’est pas magique. C’est l’alliance de données massives, d’algorithmes puissants et de ressources de calcul qui rend ces technologies possibles.
IA Générale (IAG)
IA Générative (IAg)
Cliquez pour poursuivre sur l'ABC de l'IA
2. Un vide réglementaire autour de l’IA
Innovation plus rapide que la loi
Alors que les technologies d'IA se diffusent à grande vitesse, les cadres juridiques peinent à s’imposer. Ce n’est pas seulement une question de retard technique : plusieurs facteurs structurels expliquent pourquoi la régulation de l’IA reste partielle, fragmentée et parfois contestée. On peut en identifier quatre dimensions principales.
Une technologie transversale
Des régulations fragmentées
Explorez chaque dimension en cliquant sur les boutons
Une responsabilité reportée sur les acteurs
2. Un vide réglementaire autour de l’IA
Un « vide » à relativiser
Parler de vide réglementaire ne veut pas dire qu’il n’existe aucun encadrement de l’IA.Au Québec comme au Canada, le droit positif (lois et règlements formels) peine simplement à suivre le rythme de l’innovation. Mais au-delà du droit, plusieurs repères normatifs guident déjà le développement responsable de l’IA.
Directives gouvernementales (Québec/Canada)
Déclaration de Montréal
Explorez ces repères en glissant votre curseur sur les boutons
Principes de l’OCDE
Déclaration de Toronto
Recommandations de l’UNESCO
Elles montrent qu’au-delà de la loi, une régulation co-construite et évolutive cherche déjà à encadrer l’IA de manière responsable.
Testez vos connaissances
Mobilisez les informations vues précédemment pour répondre aux questions de l’ABC de l’IA. Cliquez sur chaque carte pour révéler la réponse.
Question 3
Parce qu’il n’existe pas encore de règles mondiales pour encadrer l’intelligence artificielle. Certaines initiatives régionales, comme l’AI Act en Europe, existent, mais elles restent limitées et aucune régulation internationale contraignante n’a été adoptée.
Question 2
Question 1
L’IA générale reste un horizon de recherche. En pratique, c’est presque toujours l’IA générative (comme GPT, Claude ou Gemini) qui est visée lorsque l’on parle d’IA aujourd’hui.
Bonne réponse : BExplication : L’IA générative ne comprend pas vraiment. Elle calcule la suite la plus probable jeton par jeton, selon son entraînement.
L’IA générative fonctionne en… A) Comprenant réellement le sens des mots B) Prédisant la suite la plus probable dans une séquence C) Copiant et recollant directement des phrases issues d’internet
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Pourquoi dit-on qu’il existe aujourd’hui un « vide réglementaire » autour de l’IA ?
Quand on parle d’«intelligence artificielle » aujourd’hui, à quel type d’IA fait-on principalement référence ?
Title
Title
Title
Write a brief description here
Write a brief description here
Write a brief description here
3. Quelles Vigilances face à l’IA ?
Yoshua Bengio, pionnier de l’intelligence artificielle et expert reconnu mondialement, alerte sur les risques que ces technologies font peser sur nos sociétés. Son message est clair : si l’IA ouvre des opportunités inédites, elle comporte aussi des dangers bien réels qu’il serait imprudent d’ignorer. Visionnez cette vidéo pour amorcer une réflexion sur les risques liés à l’IA.
3. Quelles Vigilances face à l’IA ?
La section qui suit présente cinq balises pour comprendre les risques liés à l’intelligence artificielle et adopter une posture éthique et responsable face à son usage.
1) les biais et l’absence de neutralité 2) les impacts cognitifs et intellectuels 3) les erreurs factuelles et hallucinations 4) l’empreinte environnementale 5) les inégalités d’accès
Révélez les cinq dimensions en cliquant ici
Poursuivez la capsule pour approfondir chacune de ces balises et renforcer votre vigilance dans l’usage de l’IA.
3. Quelles vigilances face à l’IA ?
Biais et absence de neutralité
1.Biais liés aux données
L’IA hérite des inégalités et stéréotypes présents dans les données utilisées pour son entraînement.
L’IA n’est pas exempte de biais. Ces biais ne sont pas de simples erreurs techniques : ils influencent la manière dont l’IA apprend, fonctionne et interagit avec nous.Comprendre ces mécanismes est essentiel pour adopter une posture critique et responsable face à son usage.
2. Biais liés au développement
Les choix techniques des concepteurs (variables, critères, tests) influencent directement le comportement du modèle.
3. Biais liés à l’interaction
Cliquez ici pour révéler 3 biais qui influencent l’IA.
Cliquez sur les icônes pour découvrir une brève explication
L’usage de l’IA peut renforcer les opinions des utilisateurs ou réduire leur esprit critique.
3. Quelles vigilances face à l’IA ?
impacts cognitifs
L’IA rend nos tâches plus rapides et plus simples. Pourtant, à mesure qu’on s’y habitue, elle peut réduire certaines de nos capacités fondamentales : décider, douter, inventer. Le risque n’apparaît pas d’un coup, il s’installe discrètement au fil du temps.
Cliquez sur les pour voir comment la perte cognitive s’installe et comment garder une posture active
Décision et autonomie
Pensée critique
Analyse et créativité
L’IA simplifie nos choix, mais une dépendance excessive affaiblit le jugement et réduit l’autonomie.
Les réponses de l’IA paraissent fiables, mais sans vérification elles font disparaître le doute et fragilisent l’esprit critique.
L’IA peut inspirer et structurer, mais un usage excessif uniformise nos productions et appauvrit la créativité.
Garder une posture active, c’est continuer à exercer son discernement.
Garder une posture active, c’est questionner et comparer systématiquement.
Garder une posture active, c’est nourrir sa créativité et croiser les points de vue.
3. Quelles vigilances face à l’IA ?
Manifestations des hallucinations
erreurs factuelles & hallucinations
Les hallucinations se traduisent par des contenus inventés ou inexacts. Elles brouillent la frontière entre ce qui est plausible et ce qui est réellement fondé.
Cliquez ci-dessous pour explorer des exemples.
Info
Conséquences des hallucinations
L’IA est conçue pour produire des réponses fluides et crédibles. Mais cette apparence peut être trompeuse : il arrive qu’elle invente des informations qu'elle fournit. Ces productions fausses mais plausibles sont appelées hallucinations.
Parce qu’elles paraissent crédibles, ces erreurs peuvent fausser la compréhension, propager de fausses connaissances et fragiliser la confiance dans l’IA.
Cliquez ci-dessous pour en savoir plus sur leurs impacts.
Cliquez sur le bouton pour approfondir votre compréhension des hallucinations en IA.
Info
3. Quelles vigilances face à l’IA ?
Empreinte environnementale
L’IA générative consomme d’énormes quantités d’énergie et d’eau. À grande échelle, cette empreinte environnementale devient impossible à ignorer.
Pour mesurer concrètement l’ampleur de cette empreinte, répondez aux questions suivantes
Cliquez ici pour amorcer les explications
Derrière l’IA, il y a des centres de données bien réels
Cliquez ici pour afficher la prochaine question
Cliquez ici pour afficher la prochaine question
Leur fonctionnement exige beaucoup d’électricité et d’eau
L’entraînement des grands modèles mobilise des ressources considérables
Une requête isolée compte peu… mais des milliards s’accumulent
Cela entraîne des émissions de GES et une pression sur les ressources locales
Derrière chaque innovation, il y a aussi un coût écologique
3. Quelles vigilances face à l’IA ?
Inégalités d’accès
Une connexion stable, une bonne bande passante et des appareils récents sont nécessaires pour interagir efficacement avec l’IA. Ces conditions restent inégales : dans de nombreux pays du Sud global, mais aussi dans certaines zones rurales ou précaires, elles sont insuffisantes. Ces écarts renforcent la fracture numérique et limitent l’accès équitable aux opportunités offertes par l’IA.
L’IA se présente comme une technologie universelle, mais son accès reste inégal. Ces écarts soulèvent un enjeu central : éviter que l’IA accentue les fractures déjà existantes.
Les versions gratuites de l’IA existent, mais elles sont limitées en vitesse, fiabilité et fonctionnalités. Les modèles les plus puissants sont réservés aux abonnements payants ou aux API coûteuses, accessibles surtout aux organisations bien dotées. Cela crée une hiérarchie d’accès : une « IA de base » pour la majorité, et une « IA premium » pour ceux qui peuvent investir, renforçant les inégalités éducatives, économiques et sociales.
Les modèles sont surtout entraînés en anglais, ce qui assure des réponses plus riches et fiables dans cette langue. Les autres langues, même très parlées, produisent souvent des résultats moins précis ou plus stéréotypés, et les langues minoritaires sont encore plus désavantagées. Ce déséquilibre n’est pas neutre : il reflète et amplifie une domination culturelle anglophone qui limite la diversité des savoirs représentés.
Langues et cultures
Infrastructures numériques
Coût et modèles économiques
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.
Sans connexion fiable, l’accès à l’IA reste limité.
Un accès de qualité dépend des moyens financiers.
Les performances de l’IA varient selon la langue
Title
Title
Title
Cliquez sur le bounton pour dévoilez trois dimensions de ces inégalités
Prenez connaissance des dimensions, puis cliquez en bas à droite pour retourner les cartes et approfondir chacune d’elles.
Write a brief description here
Write a brief description here
Write a brief description here
4. résumé & Ressources complémentaires
Cette section présente synthétiquement les cinq vigilances clés. Si vous souhaitez aller plus loin, des ressources complémentaires sont à votre disposition pour approfondir les thèmes qui vous intéressent.
Cliquez sur les pastilles pour explorer les ressources associées à chaque vigilance
Erreurs factuelles & hallucinations
Impacts cognitifs
Biais & absence de neutralité
Inégalités d’accès
Empreinte environnementale
L’usage intensif de l’IA peut réduire l’esprit critique et créer une dépendance.
Former et utiliser des modèles d’IA consomme beaucoup d’énergie et a un coût carbone.
Des barrières linguistiques, techniques et financières limitent l’accès équitable à l’IA.
Quand l’IA produit des réponses convaincantes mais fausses.
Quand l’IA reflète les stéréotypes ou inégalités présents dans ses données.
Pour conclure la capsule, cliquez sur la pastille ci-dessous pour révéler le message de fin
À garder en tête
partenaires du projet
Projet de vulgarisation scientifique et de mobilisation des connaissances en français qui met en valeur les recherches sur les changements climatiques.
Centre de formation spécialisé en négociation collaborative et en gestion de conflits, utilisant des approches innovantes appuyées par l’IA.
Université reconnue pour son engagement envers l’innovation, le développement durable et la formation pratique.
Lien
Lien
Lien
Ressources : Hallucination de L'IA
Cliquez sur les ressources ci-dessous pour y accéder.
« Why Language Models Hallucinate ». Discussion sur les solutions proposées par OpenAI et les dilemmes économiques et techniques liés à la réduction des hallucinations.
Article
« ChatGPT : la proposition d’OpenAI pour éviter les hallucinations pourrait tuer son propre chatbot » Analyse montrant que les hallucinations des grands modèles de langage sont mathématiquement inévitables.
Article
« Why Large Language Models Hallucinate » Explication claire des différents types d’hallucinations des LLMs, de leurs causes, et conseils pratiques pour les limiter.
Vidéo
Les erreurs factuelles & les hallucinstions
Comment ça se manifeste ?
Les hallucinations se traduisent par plusieurs formes d’erreurs factuelles : 1. Références inventées L’IA peut créer de toutes pièces des articles, des auteurs ou des titres académiques. Ces références paraissent crédibles mais n’existent pas, ce qui peut induire en erreur un lecteur peu vigilant. 2. Faits inexacts Dates, chiffres, événements ou lois inexistantes peuvent être générés avec aplomb. Comme l’IA ne vérifie pas les faits mais prédit des suites probables, elle peut “fabriquer” de l’information. 3. Explications trompeuses Même lorsqu’elle ne donne pas de chiffres faux, l’IA peut combiner des notions justes de manière incohérente, produisant une réponse qui semble logique mais qui repose sur des associations erronées.
Ressources : Inégalités d’accès
Cliquez sur les ressources ci-dessous pour y accéder.
« How AI’s Failure on Linguistic Diversity is Deepening Global Inequality » L’article montre comment le manque de diversité linguistique en IA renforce les inégalités mondiales, mais souligne aussi les initiatives locales, notamment africaines, pour bâtir des modèles inclusifs et durables
« Connectivity for AI enabled cities – A field survey based study of emerging economies » Cet article montre que sans réseaux fiables, rapides et abordables, l’IA urbaine reste hors de portée, surtout dans les pays émergents. Il rappelle que l’accès aux infrastructures est une condition essentielle pour réduire les inégalités d’usage.
Article
Article
« AI Chatbots and Linguistic Injustice » Cet article montre ue les chatbots d’IA, dominés par l’anglais, accentuent les inégalités linguistiques. Il appelle à élargir les données d’entraînement et à intégrer la diversité culturelle pour rendre l’IA plus inclusive.
Article
Innovation plus rapide que la loi
Les modèles d’IA se développent et se diffusent à une vitesse fulgurante, portée par des entreprises privées qui publient de nouvelles versions en quelques mois. En comparaison, les processus législatifs demandent des années de débats, de consultations et de compromis. Ce décalage crée un retard structurel entre l’innovation et la régulation.
Des régulations fragmentées
L’Union européenne a ouvert la voie avec l’AI Act, qui classe les usages de l’IA selon leur niveau de risque. Mais ce texte est limité à l’Europe, sa mise en œuvre sera progressive, et il ne s’applique pas ailleurs. Dans le reste du monde, on trouve surtout des lois nationales disparates (États-Unis, Chine) ou des initiatives volontaires (OCDE, UNESCO, G7), sans coordination globale.
Pour en apprendre plus sur l'AI ACT, consultez cette ressource
ABC de l'IA
Avant d’aller plus loin : distinguer l’IA, les modèles et l’IA générative
IA GÉNÉRATIVE
L'IA regroupe les techniques qui permettent à une machine d’apprendre, de raisonner ou de créer à partir de données. Parmi elles, on trouve l’IAg, qui se distingue par sa capacité à produire du contenu nouveau (texte, image, son ou vidéo) à partir des données sur lesquelles elle a été entraînée. Pour y parvenir, l’IAg s’appuie sur des modèles d’apprentissage : des systèmes statistiques capables d’identifier des régularités et de générer des résultats cohérents. Les grands modèles de langage (LLM) sont une forme d’IA générative spécialisée dans le texte. Ce sont eux qui alimentent les outils comme ChatGPT ou Gemini. C’est sur ces modèles que cette capsule s’attarde, car ils sont aujourd’hui les plus répandus et les plus faciles à utiliser.
Cliquez sur le bouton audio pour écouter l’explication complète
Cliquez sur les boutons ci-dessous pour explorer les ressources et comprendre concrètement le fonctionnement de l’IA générative.
Outil : Tokenizer
Vidéo : « How AI Models Understand Language »
Découvrez comment un texte est découpé en jetons (token)
Cliquez pour poursuivre sur l'IAg
Ressources : Biais de l'IA
Cliquez sur les ressources ci-dessous pour y accéder.
« Biais psychosociaux - Une I.A. humaine, trop humaine » Cet épisode du balado I.A. Café explore comment les intelligences artificielles reproduisent nos biais et comportements humains, révélant les limites éthiques d’une IA conçue à notre image.
Balado
« Qu’est-ce que le biais de l’IA ?» Cet article d'IBM vulgarise les différents types de biais (de données, cognitifs, algorithmiques) et leurs impacts concrets dans des domaines comme la santé, le recrutement ou la justice, tout en proposant des pistes de gouvernance responsable.
Article
«AI Is Dangerous, but Not for the Reasons You Think» Sasha Luccioni, experte en IA et climat, explique que les dangers réels de l’IA résident dans ses biais intégrés et son empreinte environnementale. Voir minute 6 pour son analyse des biais.
TED Talk
Une technologie transversale
L’IA ne se limite pas à un secteur : elle impacte la santé, l’éducation, la finance, la culture, la sécurité… Chaque domaine pose des enjeux juridiques différents. Faut-il une régulation universelle ou des régulations sectorielles ? Cette transversalité rend très difficile l’adoption d’un cadre unique et cohérent.
Les erreurs factuelles & les hallucinstions
Comment ça se manifeste ?
Ces erreurs ne sont pas anodines : elles ont des conséquences concrètes. Un risque de crédibilité Parce que les hallucinations sont bien formulées, elles paraissent convaincantes. Un utilisateur pressé ou inexpérimenté peut les prendre pour argent comptant. Un impact sur l’éducation et la recherche Si elles sont utilisées sans vérification, elles peuvent propager des connaissances fausses, fausser des travaux scolaires ou universitaires, et décrédibiliser l’apprentissage. Des enjeux professionnels et sociétaux Dans la santé, le droit ou la communication, une erreur factuelle peut avoir des effets graves : mauvaise décision, perte de confiance, voire impacts éthiques et légaux. Une confiance fragilisée Plus les hallucinations se multiplient, plus elles minent la crédibilité des outils d’IA. Cela peut freiner leur adoption, même dans les cas où elles seraient réellement utiles.
Une responsabilité reportée sur les acteurs
En l’absence de cadre international, la vigilance repose largement sur les usagers, les entreprises et les institutions. Certaines développent des chartes éthiques ou des codes internes, mais sans garantie de cohérence ni de transparence. Cette responsabilité décentralisée crée un risque d’inégalités : certains acteurs se dotent de garde-fous solides, d’autres non.
Ressources : Impacts cognitifs
Cliquez sur les ressources ci-dessous pour y accéder.
« ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study » Entrevue avec Nataliya Kosmyna, chercheuse au MIT Media Lab. Son étude révèle que l’usage répété de ChatGPT réduit l’engagement cérébral, favorise la paresse intellectuelle et fragilise l’esprit critique des utilisateurs
Entrevue
« IA générative : le risque de l’atrophie cognitive» Dans cet entretien avec Polytechnique Insights, le chercheur Ioan Roxin alerte sur les effets cognitifs d’un usage excessif de l’IA générative, qui peut affaiblir mémoire, attention et raisonnement. Il appelle à un usage plus conscient et critique de ces outils.
Entrevue
« Is ChatGPT hurting our critical thinking skills? » Épisode avec Celia Ford, journaliste scientifique et neuroscientifique, qui explore comment l’usage d’IA comme ChatGPT peut affaiblir l’esprit critique et propose des pistes pour protéger nos capacités cognitives.
Podcast
Ressources : Empreinte environnementale
Cliquez sur les ressources ci-dessous pour y accéder.
« Mesure de l'impact environnemental de ChatGPT » Ce premier épisode d’une série explore avec Anne-Laure Ligozat les bases du bilan carbone de l’IA : comment mesurer les émissions de GES et les impacts environnementaux de ChatGPT tout au long de son cycle de vie.
Balado
« Explained: Generative AI’s environmental impact » Cet article examine les conséquences environnementales de l’IA générative : forte consommation d’électricité, besoins importants en eau pour refroidir les centres de données, et empreinte carbone liée à la fabrication du matériel
Article
« Encadrement de l’IA et transition climatique » Les experts soulignent quatre priorités : mettre l’IA au service de l’environnement, éviter le technosolutionnisme, libérer les données publiques et mesurer l’empreinte écologique des systèmes d’IA.
Notes d'atelier
L’IA est un outil puissant, mais non neutre. En comprenant ses mécanismes, ses limites et ses impacts, vous êtes mieux outillés pour l’utiliser de façon éclairée et responsable. La vigilance n’est pas un frein : elle est la condition pour tirer pleinement parti de ces technologies.
ABC de l'IA
IA Générale
Cliquez sur le bouton audio pour écouter l’explication complète
Explorez ces ressources pour mieux comprendre l'IAG
Article : « Artificial General Intelligence (AGI) for Education »
Vidéo : « What is artificial general intelligence ?»