L'IA au service de l'école pour tous
Enjeux Cadre Apports pratiques
Home
Home
Du triangle à la pyramide didactique
Home
Le modèle SAMR, ou comment privilégier la pertinence pédagogique
Home
Vers un usage critique des élèves au service de leurs apprentissages
Source Margarida ROMERO : https://margaridaromero.wordpress.com/2024/04/23/usages-creatifs-de-liappai6/
Home
Un enjeu de formation nécessaire pour privilégier des pratiques innovantes
Une récente étude fait apparaître que les IAG commerciales grand public propose implicitement des approches pédagogiques obsolètes. D'où la nécessité de former les enseignants aux stratégies pratiques permettant d'atténuer les biais pédagogiques néfastes tout en promouvant les valeurs éducatives contemporaines privilégiant coopération et autonomie.
Home
Les premières études montrent que l'usage de l'IA creuse les inégalités scolaires.
Home
Le développement des usages de l'IA comme "ami·e" ou "confident·e" virtuelle pose un autre enjeu, celui de la fausse empathie. Elle conforte aussi les archétypes de genre.
Home
L'enjeu de l'IA en éducation
Le cadre réglementaire
Home
Le cadre réglementaire du MEN
Le rapport de l'inspection générale de mai 2025 sur l'usage de l'IA dans les établissements scolaires
Home
Le cadre réglementaire
Les grands principes
Home
La FAQ de la CNIL
Accédez à la FAQ de la CNIL
Quels usages, quels apports pour l'enseignant?
Apports
- Gain de temps
- Personnalisation / différenciation
- Assistance à l'évaluation
- Assistance à la scénarisation, à l'innovation
- Conseils en tout genre
Précautions d'usage / prérequis
- Se former / former ses élèves (biais, poids environnemental...)
- Se former / former ses élèves à la maîtrise du prompt
- Fixer son curseur et s'y tenir
- Se tenir informé
Six grands types d'usages
RédactionCorrection Traduction
Assistancepersonnelle
Aide à la compréhension Approfondissement Veille
Adaptation, différenciation
Evaluation, assistance à l'évaluation
Production de contenus
Quels outils ?
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Quelques IAG spécifiques
Trouver des outils par besoins
Créer des contenus variés avec NotebookLM
Créer des infographies avec Napkin
Utiliser des assistants
Un exemple de Chatbot en histoire en 3e
Utiliser des assistants
Utiliser Accessdoc
Utiliser Accessdoc
Utiliser Accessdoc
Utiliser Accessdoc
Les agents conversionnels génératifs
Les IAG grand public ne sont pas RGPD. Elle stockent les données et s'en servent parfois (entraînement de leurs modèles, conception de jeux de données, algorythmes). Un enseignant peut s'en servir à condition de n'y entrer aucune donnée personnelle et de critiquer systématiquement les contenus générés.
Quelques stratégies pour un prompting optimal
Home
La méthode PROSE de Yann Houry
Home
La méthode CRAFT
Home
La méthode ACTIF
Home
- Méthode 1 : Enrichir avec vos documents
- Cliquez sur l'icône de trombone ou "joindre" dans l'interface de chat
- Choisissez le fichier depuis votre ordinateur (formats acceptés : PDF, DOCX, TXT, images, etc.)
- Le document apparaît dans la zone de conversation
- Posez vos questions - l'agent peut désormais analyser et référencer le contenu du document.
Cela permet de sécuriser en grande partie les sources si votre prompt exige de manière stricte l'usage exclusif de celles-ci.
- Méthode 1 : Enrichir avec vos documents
- Méthode 2 : Question de validation finale
Avant de générer ta réponse finale, pose-moi TOUTES les questions nécessaires pour t'assurer que ta proposition sera :- Conforme aux attentes institutionnelles- Adaptée au niveau réel de mes élèves- Réaliste en termes de mise en œuvre en classe.
- Méthode 1 : Enrichir avec vos documents
- Méthode 2 : Question de validation finale
- Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
Verbalized Sampling ? Phase 1
Pour éviter les mêmes réponses, la même tournure, les mêmes idées, ce mode dit “Verbalized Sampling” propose de forcer l'IAG à générer du créatif et non du prévisible.Plutôt que de prompter :“Génère un plan de cours sur tel chapitre”,Demander :“Propose 5 plans de cours différents, en variant les modalités pédagogiques, sur tel chapitre et indique la probabilité que tu attribues à chacun.”
Approfondir la méthode ici
Verbalized Sampling ? Phase 2
Appliquer ensuite la stratégie Génération /Evaluation / Exploration : 1. Inviter d'abord à générer 5 suggestions2. Evaluer ensuite la pertinence de chacune3. Inviter enfin à explorer plus en profondeur la/les suggestions les plus prometteuses.
- Méthode 1 : Enrichir avec vos documents
- Méthode 2 : Question de validation finale
- Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
- Méthode 4 : Créer un Projet
Un espace de travail permet de centraliser documents et instructions pour des conversations contextualisées et sécurisées avec l'IA. La plupart des IAG propose ces fonctionnalités similaires :
- Claude Projets : Espaces avec documents persistants et prompt personnalisé
- ChatGPT Custom GPTs : Agents configurables avec fichiers et instructions
- Gemini + Google Workspace : Intégration documents Drive et prompt de contexte
- Microsoft Copilot – Workspaces liés à l'environnement Microsoft 365
- Perplexity Spaces : Collections thématiques avec sources et contexte partagé
- Mistral Le Chat : Espaces de conversation avec documents et contexte personnalisé
- Méthode 1 : Enrichir avec vos documents
- Méthode 2 : Question de validation finale
- Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
- Méthode 4 : Créer un Projet
- Méthode 5 : Exiger rigueur et sources fiables
Ne génère AUCUNE information que tu ne peux vérifier. Pour toute affirmation factuelle, cite tes sources en privilégiant dans l'ordre : (1) sources institutionnelles officielles et publications scientifiques (2) organismes de recherche reconnus et bases de données publiques (3) médias de référence et éditeurs académiques. Évite blogs personnels, contenus sans auteur, sites commerciaux. Pour chaque source, précise : auteur, date, degré de certitude (confirmé/probable/incertain). EN CAS DE DOUTE : réponds 'Je ne dispose pas d'informations fiables sur ce point' plutôt que d'inventer. Signale explicitement tes limites de connaissances et les informations potentiellement obsolètes. Exemple : "Explique les effets du réchauffement climatique EN CITANT UNIQUEMENT des rapports GIEC, publications scientifiques revues par pairs ou données institutionnelles (NASA, NOAA). Indique le degré de certitude pour chaque affirmation.
- Méthode 1 : Enrichir avec vos documents
- Méthode 2 : Question de validation finale
- Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
- Méthode 4 : Créer un Projet
- Méthode 5 : Exiger rigueur et sources fiables
- Méthode 6 : Factuel ou créatif ? La température du prompt
La "température" du prompt
La température contrôle le niveau d'aléatoire et de créativité dans les réponses de l'IA et agis comme un curseur entre "prévisible/précis/factuel" et "créatif/surprenant".- 0.0 à 0.3 → Mode "déterministe" : réponses précises, factuelles, répétables
- 0.4 à 0.7 → Mode "équilibré" : bon compromis (valeur par défaut souvent à 0.7)
- 0.8 à 1.0 → Mode "créatif" : réponses variées, originales, parfois surprenantes
- Au-delà de 1.0 → Mode "chaotique" : risque d'incohérence (rarement utile)
La "température" du prompt
"Écris le début d'une histoire sur un élève qui découvre un livre magique." 0.2. "Marc trouva un vieux livre dans la bibliothèque. Le livre était rouge." (Factuel, sobre, répétitif si relancé) 0.7. "C'était un mardi ordinaire quand Léa tomba sur un grimoire poussiéreux caché derrière les encyclopédies." (Équilibré, intéressant) 0.9. "Les pages du manuscrit scintillaient comme des écailles de dragon sous la lune, murmurant des secrets en langues oubliées." (Créatif, métaphorique, différent à chaque génération)
- Méthode 1 : Enrichir avec vos documents
- Méthode 2 : Question de validation finale
- Méthode 3 : Verbalized Sampling (échantillonnage verbalisé)
- Méthode 4 : Créer un Projet
- Méthode 5 : Exiger rigueur et sources fiables
- Méthode 6 : Factuel ou créatif ? La température du prompt
- Méthode 7 : Utiliser NotebookLM comme une "usine à prompts experts"
2 Instructions générales personnalisées (intention, contexte, valeurs)
1 Sources
Manuels, guides, ressources sur le prompting Cadre d'usage...
4. Proposisitions générées
A copier et coller dans votre IAG
3. Requêtes précises pour générer des prompts spécifiques
Conseil : utilisez les verbes d'action pour un prompt parfait ! Une ressource de l'Université de Laval basée sur la taxonomie de Bloom révisée..
Home
Un prompt adapté à l'élève La méthode QCDE
Qui es-tu ? Explique ton niveau et ta situation Contexte : Quel est le sujet, la notion, le problème ? Demande : Qu'attends-tu exactement ? Explicite : Précise comment tu veux la réponse
Home
Exemples de prompts utiles aux élèves
Home
Du côté des ressources
Home
Le Vocabulaire du monde de l'IA
Grand modèle de langage (LLM)
Intéractivité Cliquez sur les définitions
Un LLM est une IA capable de comprendre et générer du texte en imitant le langage humain, sans réelle compréhension.
Paramètres
Entraînement
Les paramètres sont les millions (ou milliards) de valeurs numériques qui déterminent le comportement et la précision d’un LLM.
L’entraînement est la phase où un LLM analyse d’énormes volumes de données pour ajuster ses paramètres et améliorer sa précision.
Token
Un token est une unité de base (mot, syllabe, ponctuation) utilisée par les LLM pour décoder et produire du texte.
Inférence
L’inférence est le processus par lequel un LLM génère une réponse en temps réel, mot par mot, à partir d’une requête utilisateur.
Modèle multimodal
Un modèle multimodal est une IA capable de traiter et combiner plusieurs types de données (texte, image, audio, vidéo).
Prompt
Fine-tuning
Le prompt est la consigne donnée à une IA pour orienter sa réponse, dont la clarté influence directement la qualité du résultat.
Le fine-tuning est l’adaptation d’un LLM déjà entraîné à un domaine spécifique, pour en améliorer la précision sans tout réapprendre.
R.A.G. (Génération augmentée par récupération)
Hallucinations
Le RAG améliore les réponses d’une IA en les enrichissant avec des données externes fiables, réduisant ainsi les risques d’erreurs.
Les hallucinations sont des informations inventées par une IA, présentées comme réelles mais erronées ou fictives.
Home
Ressources pour aller plus loinOutils et activités clés en main
Des outils et activités clés en main pour enseigner ces enjeux Comparer 2 IA et leurs impacts : ComparIA Module : IA & Environnement (Café IA) Arcep Mesurer l’impact des sites Web : Ecoindex.fr Comparateur Carbone
Home
Le module d'auto-formation du CREIA sur la cadre réglementaire
Se connecter à Magistère 2
S'inscrire au module
Home
Le regard de praticiens engagés
Home
Du côté des ressources
Home
Quelques ressources réflexives, formatives et de veille
UQAM
UBS
EPLE Lausanne
Ecole branchée
DEGESCO
Home
Des manuels et des Moocs en ligne
Home
Contacts pour une escale en établissement
corentin.garrault@ac-rennes.fr yohan.pomes@ac-rennes.fr ronan.richard@ac-rennes.fr floriane.voyer@ac-rennes.fr
Hallucinations
L'IA en plein désert...
Les LLM génèrent des réponses en prédisant les mots les plus probables, sans vérifier leur véracité. Cela peut conduire à la création de dates, citations, faits ou personnes inexistants, mais formulés de manière convaincante. Ce phénomène, lié à l’absence de « compréhension » réelle, rend indispensable la vérification des informations fournies par l’IA, surtout pour des sujets techniques ou factuels.
Fine-tuning
Affinage de l'IA
Cette technique consiste à affiner un modèle existant en lui présentant des exemples ciblés (documents techniques, conversations spécialisées, etc.). Le modèle ajuste alors légèrement ses paramètres pour mieux répondre à un usage particulier, comme un chatbot de service client ou un assistant juridique. Le fine-tuning évite les coûts prohibitifs d’un entraînement complet, tout en offrant une IA plus performante dans un contexte précis.
Paramètres
Les "régagles" de l'IA
Ces paramètres agissent comme des « boutons de réglage » internes, influençant la manière dont le modèle interprète les phrases, établit des liens entre les idées et choisit les mots à générer. Pendant l’entraînement, ils sont ajustés en continu pour améliorer les performances du modèle. Plus un LLM possède de paramètres, plus il est capable de saisir des nuances fines dans le langage, mais plus son entraînement devient coûteux et long.
Modèle Multimodal
Image + Texte + Vidéo + ...
Contrairement aux modèles classiques, qui se limitent au texte, les modèles multimodaux peuvent analyser une image, répondre à une question sur celle-ci, ou même générer du contenu mixte (comme transformer une photo en récit). Cette capacité à croiser différentes formes d’informations les rapproche de la perception humaine et ouvre des possibilités variées, comme la description automatique d’images ou l’interprétation de graphiques.
Token
Quand l'IA "fout les jetons"
Les LLM ne traitent pas le texte comme un tout, mais le divisent en tokens pour le analyser plus efficacement. Un token peut représenter un mot entier, une partie de mot, un espace ou un signe de ponctuation. Le nombre de tokens dans une phrase impacte directement le coût et la complexité de son traitement. De plus, les modèles ont une limite de tokens (fenêtre de contexte) : au-delà, ils « oublient » le début de la conversation.
LLM
Grand Modèle de Langage
Un grand modèle de langage est une intelligence artificielle entraînée sur des milliards de phrases issues de livres, articles, sites web ou conversations. Il identifie des schémas linguistiques pour prédire les mots les plus probables à utiliser ensuite. Bien qu’il ne comprenne pas le texte comme un humain, il simule avec précision la structure et le style des échanges écrits. Ces modèles sont au cœur des chatbots modernes, comme ceux utilisés pour répondre à des questions, rédiger des textes ou assister dans diverses tâches.
R.A.G.
Génération augmentée par récupération
La génération augmentée par récupération (RAG) permet à un modèle d’IA de puiser dans des bases de données internes (emails, documents, PDF) avant de répondre. Cette approche augmente la pertinence et la traçabilité des informations, tout en limitant les hallucinations. Accessible à toutes les entreprises, elle ne nécessite pas de compétences techniques avancées et peut s’appliquer à des données variées, des simples fichiers textuels aux bases juridiques complexes.
Inférence
Impacts de l'utilisation d'une IA
Lorsqu’un utilisateur pose une question ou demande un texte, le modèle analyse la requête et prédit, séquentiellement, les mots les plus pertinents à produire. Cette étape, bien que moins visible que l’entraînement, consomme également une grande quantité de ressources informatiques. Chaque interaction, qu’il s’agisse de texte, d’image ou de conversation, mobilise des infrastructures puissantes, ce qui pousse les entreprises à investir massivement dans des centres de données performants.
Prompt
L'art de se faire comprendre par l'IA
Le prompt peut prendre la forme d’une question, d’une phrase, d’une image, ou d’une combinaison de plusieurs éléments. Il sert de point de départ pour que le modèle comprenne ce que l’utilisateur attend. Une demande précise et bien contextualisée permet à l’IA de générer une réponse plus pertinente, tandis qu’un prompt vague ou ambigu peut conduire à des résultats imprécis. Cette compétence à formuler des prompts efficaces a même donné naissance à un nouveau métier : l’ingénierie de prompts.
Entrainement
de l'IA
L’entraînement consiste à exposer le modèle à des quantités massives de données textuelles, afin qu’il affine progressivement ses paramètres internes (les règles qui guident son fonctionnement). Cette étape est extrêmement gourmande en ressources : elle nécessite des milliers de puces informatiques spécialisées, capables de réaliser des calculs complexes en parallèle. Plus le modèle est grand, plus l’entraînement demande de puissance, d’énergie et de matériel, ce qui explique les coûts élevés associés au développement de l’IA.
Neurones artificiels
Fonctionnement d'un réseaux de neurones simples
Un réseau de neurones simple fonctionne comme un système de filtrage progressif :
- Il reçoit une image (pixels convertis en nombres) en entrée.
- Il extrait des caractéristiques (contours, formes) via une ou plusieurs couches cachées, où chaque neurone réagit à des motifs spécifiques (ex. : oreilles, museau).
- Il combine ces informations pour produire une probabilité en sortie : "chien" ou "chat".
- Il apprend par l’exemple : en comparant ses prédictions avec des réponses correctes, il ajuste ses paramètres internes (poids) pour réduire ses erreurs.
L'IA école pour tous
ronanrichard22600
Created on January 25, 2026
Start designing with a free template
Discover more than 1500 professional designs like these:
View
SWOT Challenge: Classify Key Factors
View
Vision Board
View
Explainer Video: Keys to Effective Communication
View
Explainer Video: AI for Companies
View
Corporate CV
View
Flow Presentation
View
Discover Your AI Assistant
Explore all templates
Transcript
L'IA au service de l'école pour tous
Enjeux Cadre Apports pratiques
Home
Home
Du triangle à la pyramide didactique
Home
Le modèle SAMR, ou comment privilégier la pertinence pédagogique
Home
Vers un usage critique des élèves au service de leurs apprentissages
Source Margarida ROMERO : https://margaridaromero.wordpress.com/2024/04/23/usages-creatifs-de-liappai6/
Home
Un enjeu de formation nécessaire pour privilégier des pratiques innovantes
Une récente étude fait apparaître que les IAG commerciales grand public propose implicitement des approches pédagogiques obsolètes. D'où la nécessité de former les enseignants aux stratégies pratiques permettant d'atténuer les biais pédagogiques néfastes tout en promouvant les valeurs éducatives contemporaines privilégiant coopération et autonomie.
Home
Les premières études montrent que l'usage de l'IA creuse les inégalités scolaires.
Home
Le développement des usages de l'IA comme "ami·e" ou "confident·e" virtuelle pose un autre enjeu, celui de la fausse empathie. Elle conforte aussi les archétypes de genre.
Home
L'enjeu de l'IA en éducation
Le cadre réglementaire
Home
Le cadre réglementaire du MEN
Le rapport de l'inspection générale de mai 2025 sur l'usage de l'IA dans les établissements scolaires
Home
Le cadre réglementaire
Les grands principes
Home
La FAQ de la CNIL
Accédez à la FAQ de la CNIL
Quels usages, quels apports pour l'enseignant?
Apports
Précautions d'usage / prérequis
Six grands types d'usages
RédactionCorrection Traduction
Assistancepersonnelle
Aide à la compréhension Approfondissement Veille
Adaptation, différenciation
Evaluation, assistance à l'évaluation
Production de contenus
Quels outils ?
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Source : Patrick Renaud, Laëtitia Allegrini, webinaire de la CREIA
Quelques IAG spécifiques
Trouver des outils par besoins
Créer des contenus variés avec NotebookLM
Créer des infographies avec Napkin
Utiliser des assistants
Un exemple de Chatbot en histoire en 3e
Utiliser des assistants
Utiliser Accessdoc
Utiliser Accessdoc
Utiliser Accessdoc
Utiliser Accessdoc
Les agents conversionnels génératifs
Les IAG grand public ne sont pas RGPD. Elle stockent les données et s'en servent parfois (entraînement de leurs modèles, conception de jeux de données, algorythmes). Un enseignant peut s'en servir à condition de n'y entrer aucune donnée personnelle et de critiquer systématiquement les contenus générés.
Quelques stratégies pour un prompting optimal
Home
La méthode PROSE de Yann Houry
Home
La méthode CRAFT
Home
La méthode ACTIF
Home
- Posez vos questions - l'agent peut désormais analyser et référencer le contenu du document.
Cela permet de sécuriser en grande partie les sources si votre prompt exige de manière stricte l'usage exclusif de celles-ci.Avant de générer ta réponse finale, pose-moi TOUTES les questions nécessaires pour t'assurer que ta proposition sera :- Conforme aux attentes institutionnelles- Adaptée au niveau réel de mes élèves- Réaliste en termes de mise en œuvre en classe.
Verbalized Sampling ? Phase 1
Pour éviter les mêmes réponses, la même tournure, les mêmes idées, ce mode dit “Verbalized Sampling” propose de forcer l'IAG à générer du créatif et non du prévisible.Plutôt que de prompter :“Génère un plan de cours sur tel chapitre”,Demander :“Propose 5 plans de cours différents, en variant les modalités pédagogiques, sur tel chapitre et indique la probabilité que tu attribues à chacun.”
Approfondir la méthode ici
Verbalized Sampling ? Phase 2
Appliquer ensuite la stratégie Génération /Evaluation / Exploration : 1. Inviter d'abord à générer 5 suggestions2. Evaluer ensuite la pertinence de chacune3. Inviter enfin à explorer plus en profondeur la/les suggestions les plus prometteuses.
Un espace de travail permet de centraliser documents et instructions pour des conversations contextualisées et sécurisées avec l'IA. La plupart des IAG propose ces fonctionnalités similaires :
Ne génère AUCUNE information que tu ne peux vérifier. Pour toute affirmation factuelle, cite tes sources en privilégiant dans l'ordre : (1) sources institutionnelles officielles et publications scientifiques (2) organismes de recherche reconnus et bases de données publiques (3) médias de référence et éditeurs académiques. Évite blogs personnels, contenus sans auteur, sites commerciaux. Pour chaque source, précise : auteur, date, degré de certitude (confirmé/probable/incertain). EN CAS DE DOUTE : réponds 'Je ne dispose pas d'informations fiables sur ce point' plutôt que d'inventer. Signale explicitement tes limites de connaissances et les informations potentiellement obsolètes. Exemple : "Explique les effets du réchauffement climatique EN CITANT UNIQUEMENT des rapports GIEC, publications scientifiques revues par pairs ou données institutionnelles (NASA, NOAA). Indique le degré de certitude pour chaque affirmation.
La "température" du prompt
La température contrôle le niveau d'aléatoire et de créativité dans les réponses de l'IA et agis comme un curseur entre "prévisible/précis/factuel" et "créatif/surprenant".- 0.0 à 0.3 → Mode "déterministe" : réponses précises, factuelles, répétables
- 0.4 à 0.7 → Mode "équilibré" : bon compromis (valeur par défaut souvent à 0.7)
- 0.8 à 1.0 → Mode "créatif" : réponses variées, originales, parfois surprenantes
- Au-delà de 1.0 → Mode "chaotique" : risque d'incohérence (rarement utile)
La "température" du prompt
"Écris le début d'une histoire sur un élève qui découvre un livre magique." 0.2. "Marc trouva un vieux livre dans la bibliothèque. Le livre était rouge." (Factuel, sobre, répétitif si relancé) 0.7. "C'était un mardi ordinaire quand Léa tomba sur un grimoire poussiéreux caché derrière les encyclopédies." (Équilibré, intéressant) 0.9. "Les pages du manuscrit scintillaient comme des écailles de dragon sous la lune, murmurant des secrets en langues oubliées." (Créatif, métaphorique, différent à chaque génération)
2 Instructions générales personnalisées (intention, contexte, valeurs)
1 Sources
Manuels, guides, ressources sur le prompting Cadre d'usage...
4. Proposisitions générées
A copier et coller dans votre IAG
3. Requêtes précises pour générer des prompts spécifiques
Conseil : utilisez les verbes d'action pour un prompt parfait ! Une ressource de l'Université de Laval basée sur la taxonomie de Bloom révisée..
Home
Un prompt adapté à l'élève La méthode QCDE
Qui es-tu ? Explique ton niveau et ta situation Contexte : Quel est le sujet, la notion, le problème ? Demande : Qu'attends-tu exactement ? Explicite : Précise comment tu veux la réponse
Home
Exemples de prompts utiles aux élèves
Home
Du côté des ressources
Home
Le Vocabulaire du monde de l'IA
Grand modèle de langage (LLM)
Intéractivité Cliquez sur les définitions
Un LLM est une IA capable de comprendre et générer du texte en imitant le langage humain, sans réelle compréhension.
Paramètres
Entraînement
Les paramètres sont les millions (ou milliards) de valeurs numériques qui déterminent le comportement et la précision d’un LLM.
L’entraînement est la phase où un LLM analyse d’énormes volumes de données pour ajuster ses paramètres et améliorer sa précision.
Token
Un token est une unité de base (mot, syllabe, ponctuation) utilisée par les LLM pour décoder et produire du texte.
Inférence
L’inférence est le processus par lequel un LLM génère une réponse en temps réel, mot par mot, à partir d’une requête utilisateur.
Modèle multimodal
Un modèle multimodal est une IA capable de traiter et combiner plusieurs types de données (texte, image, audio, vidéo).
Prompt
Fine-tuning
Le prompt est la consigne donnée à une IA pour orienter sa réponse, dont la clarté influence directement la qualité du résultat.
Le fine-tuning est l’adaptation d’un LLM déjà entraîné à un domaine spécifique, pour en améliorer la précision sans tout réapprendre.
R.A.G. (Génération augmentée par récupération)
Hallucinations
Le RAG améliore les réponses d’une IA en les enrichissant avec des données externes fiables, réduisant ainsi les risques d’erreurs.
Les hallucinations sont des informations inventées par une IA, présentées comme réelles mais erronées ou fictives.
Home
Ressources pour aller plus loinOutils et activités clés en main
Des outils et activités clés en main pour enseigner ces enjeux Comparer 2 IA et leurs impacts : ComparIA Module : IA & Environnement (Café IA) Arcep Mesurer l’impact des sites Web : Ecoindex.fr Comparateur Carbone
Home
Le module d'auto-formation du CREIA sur la cadre réglementaire
Se connecter à Magistère 2
S'inscrire au module
Home
Le regard de praticiens engagés
Home
Du côté des ressources
Home
Quelques ressources réflexives, formatives et de veille
UQAM
UBS
EPLE Lausanne
Ecole branchée
DEGESCO
Home
Des manuels et des Moocs en ligne
Home
Contacts pour une escale en établissement
corentin.garrault@ac-rennes.fr yohan.pomes@ac-rennes.fr ronan.richard@ac-rennes.fr floriane.voyer@ac-rennes.fr
Hallucinations
L'IA en plein désert...
Les LLM génèrent des réponses en prédisant les mots les plus probables, sans vérifier leur véracité. Cela peut conduire à la création de dates, citations, faits ou personnes inexistants, mais formulés de manière convaincante. Ce phénomène, lié à l’absence de « compréhension » réelle, rend indispensable la vérification des informations fournies par l’IA, surtout pour des sujets techniques ou factuels.
Fine-tuning
Affinage de l'IA
Cette technique consiste à affiner un modèle existant en lui présentant des exemples ciblés (documents techniques, conversations spécialisées, etc.). Le modèle ajuste alors légèrement ses paramètres pour mieux répondre à un usage particulier, comme un chatbot de service client ou un assistant juridique. Le fine-tuning évite les coûts prohibitifs d’un entraînement complet, tout en offrant une IA plus performante dans un contexte précis.
Paramètres
Les "régagles" de l'IA
Ces paramètres agissent comme des « boutons de réglage » internes, influençant la manière dont le modèle interprète les phrases, établit des liens entre les idées et choisit les mots à générer. Pendant l’entraînement, ils sont ajustés en continu pour améliorer les performances du modèle. Plus un LLM possède de paramètres, plus il est capable de saisir des nuances fines dans le langage, mais plus son entraînement devient coûteux et long.
Modèle Multimodal
Image + Texte + Vidéo + ...
Contrairement aux modèles classiques, qui se limitent au texte, les modèles multimodaux peuvent analyser une image, répondre à une question sur celle-ci, ou même générer du contenu mixte (comme transformer une photo en récit). Cette capacité à croiser différentes formes d’informations les rapproche de la perception humaine et ouvre des possibilités variées, comme la description automatique d’images ou l’interprétation de graphiques.
Token
Quand l'IA "fout les jetons"
Les LLM ne traitent pas le texte comme un tout, mais le divisent en tokens pour le analyser plus efficacement. Un token peut représenter un mot entier, une partie de mot, un espace ou un signe de ponctuation. Le nombre de tokens dans une phrase impacte directement le coût et la complexité de son traitement. De plus, les modèles ont une limite de tokens (fenêtre de contexte) : au-delà, ils « oublient » le début de la conversation.
LLM
Grand Modèle de Langage
Un grand modèle de langage est une intelligence artificielle entraînée sur des milliards de phrases issues de livres, articles, sites web ou conversations. Il identifie des schémas linguistiques pour prédire les mots les plus probables à utiliser ensuite. Bien qu’il ne comprenne pas le texte comme un humain, il simule avec précision la structure et le style des échanges écrits. Ces modèles sont au cœur des chatbots modernes, comme ceux utilisés pour répondre à des questions, rédiger des textes ou assister dans diverses tâches.
R.A.G.
Génération augmentée par récupération
La génération augmentée par récupération (RAG) permet à un modèle d’IA de puiser dans des bases de données internes (emails, documents, PDF) avant de répondre. Cette approche augmente la pertinence et la traçabilité des informations, tout en limitant les hallucinations. Accessible à toutes les entreprises, elle ne nécessite pas de compétences techniques avancées et peut s’appliquer à des données variées, des simples fichiers textuels aux bases juridiques complexes.
Inférence
Impacts de l'utilisation d'une IA
Lorsqu’un utilisateur pose une question ou demande un texte, le modèle analyse la requête et prédit, séquentiellement, les mots les plus pertinents à produire. Cette étape, bien que moins visible que l’entraînement, consomme également une grande quantité de ressources informatiques. Chaque interaction, qu’il s’agisse de texte, d’image ou de conversation, mobilise des infrastructures puissantes, ce qui pousse les entreprises à investir massivement dans des centres de données performants.
Prompt
L'art de se faire comprendre par l'IA
Le prompt peut prendre la forme d’une question, d’une phrase, d’une image, ou d’une combinaison de plusieurs éléments. Il sert de point de départ pour que le modèle comprenne ce que l’utilisateur attend. Une demande précise et bien contextualisée permet à l’IA de générer une réponse plus pertinente, tandis qu’un prompt vague ou ambigu peut conduire à des résultats imprécis. Cette compétence à formuler des prompts efficaces a même donné naissance à un nouveau métier : l’ingénierie de prompts.
Entrainement
de l'IA
L’entraînement consiste à exposer le modèle à des quantités massives de données textuelles, afin qu’il affine progressivement ses paramètres internes (les règles qui guident son fonctionnement). Cette étape est extrêmement gourmande en ressources : elle nécessite des milliers de puces informatiques spécialisées, capables de réaliser des calculs complexes en parallèle. Plus le modèle est grand, plus l’entraînement demande de puissance, d’énergie et de matériel, ce qui explique les coûts élevés associés au développement de l’IA.
Neurones artificiels
Fonctionnement d'un réseaux de neurones simples
Un réseau de neurones simple fonctionne comme un système de filtrage progressif :