Want to create interactive content? It’s easy in Genially!

Get started free

L'IA école pour tous

ronanrichard22600

Created on January 25, 2026

Start designing with a free template

Discover more than 1500 professional designs like these:

SWOT Challenge: Classify Key Factors

Vision Board

Explainer Video: Keys to Effective Communication

Explainer Video: AI for Companies

Corporate CV

Flow Presentation

Discover Your AI Assistant

Transcript

L'IA au service de l'école pour tous

Enjeux Cadre Apports pratiques

Home

Home

Du triangle à la pyramide didactique

Home

Le modèle SAMR, ou comment privilégier la pertinence pédagogique

Home

Vers un usage critique des élèves au service de leurs apprentissages

Source Margarida ROMERO : https://margaridaromero.wordpress.com/2024/04/23/usages-creatifs-de-liappai6/

Home

Un enjeu de formation nécessaire pour privilégier des pratiques innovantes

Une récente étude fait apparaître que les IAG commerciales grand public propose implicitement des approches pédagogiques obsolètes. D'où la nécessité de former les enseignants aux stratégies pratiques permettant d'atténuer les biais pédagogiques néfastes tout en promouvant les valeurs éducatives contemporaines privilégiant coopération et autonomie.

Home

Les premières études montrent que l'usage de l'IA creuse les inégalités scolaires.

Home

Le développement des usages de l'IA comme "ami·e" ou "confident·e" virtuelle pose un autre enjeu, celui de la fausse empathie. Elle conforte aussi les archétypes de genre.

Home

L'enjeu de l'IA en éducation

Le cadre réglementaire

Home

Le cadre réglementaire du MEN

Le rapport de l'inspection générale de mai 2025 sur l'usage de l'IA dans les établissements scolaires

Home

Le cadre réglementaire

Les grands principes

Home

La FAQ de la CNIL

Accédez à la FAQ de la CNIL

Quels usages, quels apports pour l'enseignant?

Apports

  • Gain de temps
  • Personnalisation / différenciation
  • Assistance à l'évaluation
  • Assistance à la scénarisation, à l'innovation
  • Conseils en tout genre

Précautions d'usage / prérequis

  • Se former / former ses élèves (biais, poids environnemental...)
  • Se former / former ses élèves à la maîtrise du prompt
  • Fixer son curseur et s'y tenir
  • Se tenir informé
Six grands types d'usages

RédactionCorrection Traduction

Assistancepersonnelle

Aide à la compréhension Approfondissement Veille

Adaptation, différenciation

Evaluation, assistance à l'évaluation

Production de contenus

Quels outils ?

Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA

Quelques IAG spécifiques

Trouver des outils par besoins

Créer des contenus variés avec NotebookLM

Créer des infographies avec Napkin

Utiliser des assistants

Un exemple de Chatbot en histoire en 3e

Utiliser des assistants

Utiliser Accessdoc

Utiliser Accessdoc

Utiliser Accessdoc

Utiliser Accessdoc

Les agents conversionnels génératifs

Les IAG grand public ne sont pas RGPD. Elle stockent les données et s'en servent parfois (entraînement de leurs modèles, conception de jeux de données, algorythmes). Un enseignant peut s'en servir à condition de n'y entrer aucune donnée personnelle et de critiquer systématiquement les contenus générés.

Quelques stratégies pour un prompting optimal

Home

La méthode PROSE de Yann Houry

Home

La méthode CRAFT

Home

La méthode ACTIF

Home

  • Méthode 1 : Enrichir avec vos documents
  • Cliquez sur l'icône de trombone ou "joindre" dans l'interface de chat
  • Choisissez le fichier depuis votre ordinateur (formats acceptés : PDF, DOCX, TXT, images, etc.)
  • Le document apparaît dans la zone de conversation
  • Posez vos questions - l'agent peut désormais analyser et référencer le contenu du document.
Cela permet de sécuriser en grande partie les sources si votre prompt exige de manière stricte l'usage exclusif de celles-ci.
  • Méthode 1 : Enrichir avec vos documents
  • Méthode 2 : Question de validation finale

Avant de générer ta réponse finale, pose-moi TOUTES les questions nécessaires pour t'assurer que ta proposition sera :- Conforme aux attentes institutionnelles- Adaptée au niveau réel de mes élèves- Réaliste en termes de mise en œuvre en classe.

  • Méthode 1 : Enrichir avec vos documents
  • Méthode 2 : Question de validation finale
  • Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)

Verbalized Sampling ? Phase 1

Pour éviter les mêmes réponses, la même tournure, les mêmes idées, ce mode dit “Verbalized Sampling” propose de forcer l'IAG à générer du créatif et non du prévisible.Plutôt que de prompter :“Génère un plan de cours sur tel chapitre”,Demander :“Propose 5 plans de cours différents, en variant les modalités pédagogiques, sur tel chapitre et indique la probabilité que tu attribues à chacun.”

Approfondir la méthode ici

Verbalized Sampling ? Phase 2

Appliquer ensuite la stratégie Génération /Evaluation / Exploration : 1. Inviter d'abord à générer 5 suggestions2. Evaluer ensuite la pertinence de chacune3. Inviter enfin à explorer plus en profondeur la/les suggestions les plus prometteuses.

  • Méthode 1 : Enrichir avec vos documents
  • Méthode 2 : Question de validation finale
  • Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
  • Méthode 4 : Créer un Projet

Un espace de travail permet de centraliser documents et instructions pour des conversations contextualisées et sécurisées avec l'IA. La plupart des IAG propose ces fonctionnalités similaires :

  • Claude Projets : Espaces avec documents persistants et prompt personnalisé
  • ChatGPT Custom GPTs : Agents configurables avec fichiers et instructions
  • Gemini + Google Workspace : Intégration documents Drive et prompt de contexte
  • Microsoft Copilot – Workspaces liés à l'environnement Microsoft 365
  • Perplexity Spaces : Collections thématiques avec sources et contexte partagé
  • Mistral Le Chat : Espaces de conversation avec documents et contexte personnalisé

  • Méthode 1 : Enrichir avec vos documents
  • Méthode 2 : Question de validation finale
  • Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
  • Méthode 4 : Créer un Projet
  • Méthode 5 : Exiger rigueur et sources fiables

Ne génère AUCUNE information que tu ne peux vérifier. Pour toute affirmation factuelle, cite tes sources en privilégiant dans l'ordre : (1) sources institutionnelles officielles et publications scientifiques (2) organismes de recherche reconnus et bases de données publiques (3) médias de référence et éditeurs académiques. Évite blogs personnels, contenus sans auteur, sites commerciaux. Pour chaque source, précise : auteur, date, degré de certitude (confirmé/probable/incertain). EN CAS DE DOUTE : réponds 'Je ne dispose pas d'informations fiables sur ce point' plutôt que d'inventer. Signale explicitement tes limites de connaissances et les informations potentiellement obsolètes. Exemple : "Explique les effets du réchauffement climatique EN CITANT UNIQUEMENT des rapports GIEC, publications scientifiques revues par pairs ou données institutionnelles (NASA, NOAA). Indique le degré de certitude pour chaque affirmation.

  • Méthode 1 : Enrichir avec vos documents
  • Méthode 2 : Question de validation finale
  • Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
  • Méthode 4 : Créer un Projet
  • Méthode 5 : Exiger rigueur et sources fiables
  • Méthode 6 : Factuel ou créatif ? La température du prompt

La "température" du prompt

La température contrôle le niveau d'aléatoire et de créativité dans les réponses de l'IA et agis comme un curseur entre "prévisible/précis/factuel" et "créatif/surprenant".
  • 0.0 à 0.3 → Mode "déterministe" : réponses précises, factuelles, répétables
  • 0.4 à 0.7 → Mode "équilibré" : bon compromis (valeur par défaut souvent à 0.7)
  • 0.8 à 1.0 → Mode "créatif" : réponses variées, originales, parfois surprenantes
  • Au-delà de 1.0 → Mode "chaotique" : risque d'incohérence (rarement utile)

La "température" du prompt

"Écris le début d'une histoire sur un élève qui découvre un livre magique." 0.2. "Marc trouva un vieux livre dans la bibliothèque. Le livre était rouge." (Factuel, sobre, répétitif si relancé) 0.7. "C'était un mardi ordinaire quand Léa tomba sur un grimoire poussiéreux caché derrière les encyclopédies." (Équilibré, intéressant) 0.9. "Les pages du manuscrit scintillaient comme des écailles de dragon sous la lune, murmurant des secrets en langues oubliées." (Créatif, métaphorique, différent à chaque génération)

  • Méthode 1 : Enrichir avec vos documents
  • Méthode 2 : Question de validation finale
  • Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
  • Méthode 4 : Créer un Projet
  • Méthode 5 : Exiger rigueur et sources fiables
  • Méthode 6 : Factuel ou créatif ? La température du prompt
  • Méthode 7 : Utiliser NotebookLM comme une "usine à prompts experts"
2 Instructions générales personnalisées (intention, contexte, valeurs)
1 Sources
Manuels, guides, ressources sur le prompting Cadre d'usage...
4. Proposisitions générées
A copier et coller dans votre IAG
3. Requêtes précises pour générer des prompts spécifiques

Conseil : utilisez les verbes d'action pour un prompt parfait ! Une ressource de l'Université de Laval basée sur la taxonomie de Bloom révisée..

Home

Un prompt adapté à l'élève La méthode QCDE

Qui es-tu ? Explique ton niveau et ta situation Contexte : Quel est le sujet, la notion, le problème ? Demande : Qu'attends-tu exactement ? Explicite : Précise comment tu veux la réponse

Home

Exemples de prompts utiles aux élèves

Home

Du côté des ressources

Home

Le Vocabulaire du monde de l'IA

Grand modèle de langage (LLM)

Intéractivité Cliquez sur les définitions

Un LLM est une IA capable de comprendre et générer du texte en imitant le langage humain, sans réelle compréhension.

Paramètres

Entraînement

Les paramètres sont les millions (ou milliards) de valeurs numériques qui déterminent le comportement et la précision d’un LLM.
L’entraînement est la phase où un LLM analyse d’énormes volumes de données pour ajuster ses paramètres et améliorer sa précision.

Token

Un token est une unité de base (mot, syllabe, ponctuation) utilisée par les LLM pour décoder et produire du texte.

Inférence

L’inférence est le processus par lequel un LLM génère une réponse en temps réel, mot par mot, à partir d’une requête utilisateur.

Modèle multimodal

Un modèle multimodal est une IA capable de traiter et combiner plusieurs types de données (texte, image, audio, vidéo).

Prompt

Fine-tuning

Le prompt est la consigne donnée à une IA pour orienter sa réponse, dont la clarté influence directement la qualité du résultat.
Le fine-tuning est l’adaptation d’un LLM déjà entraîné à un domaine spécifique, pour en améliorer la précision sans tout réapprendre.

R.A.G. (Génération augmentée par récupération)

Hallucinations

Le RAG améliore les réponses d’une IA en les enrichissant avec des données externes fiables, réduisant ainsi les risques d’erreurs.
Les hallucinations sont des informations inventées par une IA, présentées comme réelles mais erronées ou fictives.

Home

Ressources pour aller plus loinOutils et activités clés en main

Des outils et activités clés en main pour enseigner ces enjeux Comparer 2 IA et leurs impacts : ComparIA Module : IA & Environnement (Café IA) Arcep Mesurer l’impact des sites Web : Ecoindex.fr Comparateur Carbone

Home

Le module d'auto-formation du CREIA sur la cadre réglementaire

Se connecter à Magistère 2
S'inscrire au module

Home

Le regard de praticiens engagés

Home

Du côté des ressources

Home

Quelques ressources réflexives, formatives et de veille

UQAM
UBS
EPLE Lausanne
Ecole branchée
DEGESCO

Home

Des manuels et des Moocs en ligne

Home

Contacts pour une escale en établissement

corentin.garrault@ac-rennes.fr yohan.pomes@ac-rennes.fr ronan.richard@ac-rennes.fr floriane.voyer@ac-rennes.fr

Hallucinations

L'IA en plein désert...

Les LLM génèrent des réponses en prédisant les mots les plus probables, sans vérifier leur véracité. Cela peut conduire à la création de dates, citations, faits ou personnes inexistants, mais formulés de manière convaincante. Ce phénomène, lié à l’absence de « compréhension » réelle, rend indispensable la vérification des informations fournies par l’IA, surtout pour des sujets techniques ou factuels.

Fine-tuning

Affinage de l'IA

Cette technique consiste à affiner un modèle existant en lui présentant des exemples ciblés (documents techniques, conversations spécialisées, etc.). Le modèle ajuste alors légèrement ses paramètres pour mieux répondre à un usage particulier, comme un chatbot de service client ou un assistant juridique. Le fine-tuning évite les coûts prohibitifs d’un entraînement complet, tout en offrant une IA plus performante dans un contexte précis.

Paramètres

Les "régagles" de l'IA

Ces paramètres agissent comme des « boutons de réglage » internes, influençant la manière dont le modèle interprète les phrases, établit des liens entre les idées et choisit les mots à générer. Pendant l’entraînement, ils sont ajustés en continu pour améliorer les performances du modèle. Plus un LLM possède de paramètres, plus il est capable de saisir des nuances fines dans le langage, mais plus son entraînement devient coûteux et long.

Modèle Multimodal

Image + Texte + Vidéo + ...

Contrairement aux modèles classiques, qui se limitent au texte, les modèles multimodaux peuvent analyser une image, répondre à une question sur celle-ci, ou même générer du contenu mixte (comme transformer une photo en récit). Cette capacité à croiser différentes formes d’informations les rapproche de la perception humaine et ouvre des possibilités variées, comme la description automatique d’images ou l’interprétation de graphiques.

Token

Quand l'IA "fout les jetons"

Les LLM ne traitent pas le texte comme un tout, mais le divisent en tokens pour le analyser plus efficacement. Un token peut représenter un mot entier, une partie de mot, un espace ou un signe de ponctuation. Le nombre de tokens dans une phrase impacte directement le coût et la complexité de son traitement. De plus, les modèles ont une limite de tokens (fenêtre de contexte) : au-delà, ils « oublient » le début de la conversation.

LLM

Grand Modèle de Langage

Un grand modèle de langage est une intelligence artificielle entraînée sur des milliards de phrases issues de livres, articles, sites web ou conversations. Il identifie des schémas linguistiques pour prédire les mots les plus probables à utiliser ensuite. Bien qu’il ne comprenne pas le texte comme un humain, il simule avec précision la structure et le style des échanges écrits. Ces modèles sont au cœur des chatbots modernes, comme ceux utilisés pour répondre à des questions, rédiger des textes ou assister dans diverses tâches.

R.A.G.

Génération augmentée par récupération

La génération augmentée par récupération (RAG) permet à un modèle d’IA de puiser dans des bases de données internes (emails, documents, PDF) avant de répondre. Cette approche augmente la pertinence et la traçabilité des informations, tout en limitant les hallucinations. Accessible à toutes les entreprises, elle ne nécessite pas de compétences techniques avancées et peut s’appliquer à des données variées, des simples fichiers textuels aux bases juridiques complexes.

Inférence

Impacts de l'utilisation d'une IA

Lorsqu’un utilisateur pose une question ou demande un texte, le modèle analyse la requête et prédit, séquentiellement, les mots les plus pertinents à produire. Cette étape, bien que moins visible que l’entraînement, consomme également une grande quantité de ressources informatiques. Chaque interaction, qu’il s’agisse de texte, d’image ou de conversation, mobilise des infrastructures puissantes, ce qui pousse les entreprises à investir massivement dans des centres de données performants.

Prompt

L'art de se faire comprendre par l'IA

Le prompt peut prendre la forme d’une question, d’une phrase, d’une image, ou d’une combinaison de plusieurs éléments. Il sert de point de départ pour que le modèle comprenne ce que l’utilisateur attend. Une demande précise et bien contextualisée permet à l’IA de générer une réponse plus pertinente, tandis qu’un prompt vague ou ambigu peut conduire à des résultats imprécis. Cette compétence à formuler des prompts efficaces a même donné naissance à un nouveau métier : l’ingénierie de prompts.

Entrainement

de l'IA

L’entraînement consiste à exposer le modèle à des quantités massives de données textuelles, afin qu’il affine progressivement ses paramètres internes (les règles qui guident son fonctionnement). Cette étape est extrêmement gourmande en ressources : elle nécessite des milliers de puces informatiques spécialisées, capables de réaliser des calculs complexes en parallèle. Plus le modèle est grand, plus l’entraînement demande de puissance, d’énergie et de matériel, ce qui explique les coûts élevés associés au développement de l’IA.

Neurones artificiels

Fonctionnement d'un réseaux de neurones simples

Un réseau de neurones simple fonctionne comme un système de filtrage progressif :

  1. Il reçoit une image (pixels convertis en nombres) en entrée.
  2. Il extrait des caractéristiques (contours, formes) via une ou plusieurs couches cachées, où chaque neurone réagit à des motifs spécifiques (ex. : oreilles, museau).
  3. Il combine ces informations pour produire une probabilité en sortie : "chien" ou "chat".
  4. Il apprend par l’exemple : en comparant ses prédictions avec des réponses correctes, il ajuste ses paramètres internes (poids) pour réduire ses erreurs.