Want to create interactive content? It’s easy in Genially!

Get started free

L'usage de l'IA dans le Travail Social

Timothée Laisne

Created on January 21, 2026

Start designing with a free template

Discover more than 1500 professional designs like these:

Explainer Video: Keys to Effective Communication

Explainer Video: AI for Companies

Corporate CV

Flow Presentation

Discover Your AI Assistant

Urban Illustrated Presentation

Geographical Challenge: Drag to the map

Transcript

L'usage de l'IA dans le Travail Social

CommencER

L'usage de l'IA dans le Travail Social

Comme dans tous les métiers, l'IA est en train de prendre une place dans les métiers du travail social. Voici quelques uns de ses usages ainsi que son cadre légal spécifique.

IA et travail social
Quelques usages
LaborIA : IA et travail social
Cadre légal

" dans le secteur, l’IA est déjà déployée et utilisée "

-- Anaëlle Valdois Experte IA à l’Agence nationale de la performance sanitaire et médico-sociale (Anap)

Plus qu'une propective, l'IA est déjà une réalité dans les secteurs du mécical, social et médico-social. L'intelligence Artificielle impacte en profondeur ces métiers, tant dans le fond que dans la forme. Toutefois, elle ne peut pas l'être sans un cadre opérationnel adapté...

Aide au handicap et à l'inclusion

Différentes IA sont en cours de développement ou sont déja mobilisable pour l'aide face au handicap ♿​ et pour l'inclusion des publics fragilisés. On peut citer ces usages :

  • Rédaction / traduction en FALC
  • Les assistants vocaux ou visuels pour les personnes en situation de handicap
Par exemple, la solution SignLLM (en cours de développement) permet la traduction en langue des signes.

Traitement administratif assisté

L'IA est d'ores et déjà exploitable pour les taches administratives quotidiennes et le cadre professionnel du travail social. Par exemple, on peut citer ces usages :

  • Élaboration de pistes de travail pour des éducateurs spécialisés
  • Rédaction / synthèse de rapports
  • Elaboration des plannings
  • Rédaction de Compte Rendu de réunion
  • Création d'assistants administratifs

L'IA, un copilote pour le Travail Social (récapitulatif)

Exemple : caseAI - l'IA pour le Travail Social

85% des travailleurs sociaux souffrent de stress lié à la charge de travail. Dans ce contexte, l'application CaseIA assiste les TS dans la rédaction de plan d'action :

CASEAI

LaborIA : IA et travail social

Le LaborIA (ministère du travail et des solidarités) organise en france la réflexion sur les question de l'IA en travail social. Durant ce webinaire, il présente les conclusions d'une démarche de co-construction avec des professionnels du secteur sur l'intégration de l'intelligence artificielle dans leurs métiers (oct2025) :

LaborIA

En résumé

Un cadre légal strict

Podcast : un cadre légal strict

L'usage de l'IA dans le travail social est encadré par l'IA Act et le RGPD. Ce podcast résume l'impact de ces réglement sur te Travail Social. En l'écoutant, demandez-vous :

  • est-ce que j'ai le droit d'utiliser l'IA pour les CR de mes réunions?
  • est-ce que je peux utiliser l'IA pour conseiller les personnes que j'accompagne?

A votre avis :

La situation : un service social utilise une IA qui propose un niveau de priorité pour l’accès à un logement. Le travailleur social suit systématiquement ses recommandations.

A votre avis :

La situation : dans un foyer, un dispositif d’IA analyse les expressions faciales et la voix pour détecter le mensonge ou l’agressivité chez des adolescents.

Un cadre légal strict

Obligation de contrôle humain systématique 👀​

L'IA Act impacte particulièrement le travail social, en raison de sa dimension humaine forte.Voici une synthèse en 6 points des principales contraintes que l’AI Act fait peser sur l’usage de l’IA dans le champ du travail social* :

Responsabilité juridique accrue des institutions sociales 🧑🏻‍⚖️

📜 Références juridiques :Articles 16 à 29 – Obligations des fournisseurs et déployeurs Articles 99 à 101 – Régime de sanctions

Classement d'usages du travail social comme IA à “haut risque” 🔥​

Interdiction des systèmes de notation ou d’évaluation sociale automatisée ❌

Transparence obligatoire vis-à-vis des usagers ℹ️

📜Référence juridique : Article 5, §1, c) Pratiques d’IA interditesInterdiction des systèmes de "social scoring" entraînant un traitement défavorable ou discriminatoire.

Exigences strictes sur les données utilisées 📊

📜Références juridiques : article 6 – Définition des systèmes à haut risqueAnnexe III, point 5 – IA utilisée pour l’accès aux services sociaux et prestations publiques

📜 Référence juridique : Article 14 – Human oversightLes systèmes à haut risque doivent permettre une supervision humaine appropriée.

📜 Références juridiques : article 10 – Gouvernance et qualité des donnéesLien indirect avec le RGPD (art. 5 et 9) sur les données sensibles

📜 Références juridiques : article 13 - Transparence et information des utilisateursArticle 52 - Obligations de transparence pour certains systèmes

L'utilisation de l’IA doit-être documentée, avec une traçabilité complète et preuves de la conformité aux exigences du règlement. En cas de préjudice, l’organisme et ses décideurs sont responsables, avec sanctions financières.

Cadre légal 👩‍⚖️

Title

Sont considérés à haut risque les systèmes d’IA utilisés pour l’accès à des prestations sociales, la priorisation des bénéficiaires, l’évaluation de situations individuelles impactant les droits fondamentaux.

Faites défiler les cartes pour en découvrir le contenu ...

Use this side to give more information about a topic.

Les bénéficiaires de l’action sociale doivent être informés qu’un système d’IA est utilisé, de sa finalité, de ses limites et du rôle du professionnel humain.

Les systèmes d’IA utilisés en travail social doivent garantir des données pertinentes, non biaisées, représentative et absence de discrimination indirecte (handicap, origine, précarité, santé).

Toute décision significative (ex. refus automatique d’aide) doit rester sous contrôle humain effectif. L’IA ne peut être qu’un outil d’aide, jamais un décideur autonome.

➡️ Les systèmes qui classent, notent ou évaluent des personnes sur la base de leur comportement, situation sociale ou caractéristiques personnelles sont interdits.

IA Act et Travail Social

Subtitle

RGPD

IA ACT

* avec références aux articles du règlement européen (UE) 2024/1689 – AI Act.

A votre avis :

La situation : Une équipe pluridisciplinaire (travailleurs sociaux, psychologue, responsable de service) utilise une IA pour rédiger le compte rendu d’une réunion portant sur plusieurs situations individuelles (mineurs, personnes en grande précarité).L’outil est présenté comme un simple assistant de rédaction.

Cadre légal : recapitulatif

THE END 🎉

Félicitations ! 👏 Vous voici arrivés au terme de ce contenu visant à vous faire réfléchir à l'impact de l'IA sur le secteur du social et médico-social.

Cadre légal et responsabilité :

  • L'usage de l'IA est encadré par l'IA Act européen et le RGPD.
  • L'IA peut « halluciner » et le professionnel reste l'unique responsable des actes ou décisions pris sur la base des conseils d'une IA.
  • Il est interdit de transmettre de données protégées par le secret professionnel à des IA génératives publiques.
Éthique et relation humaine :
  • L'IA doit rester un outil et ne pas remplacer la relation humaine, socle du travail social.
  • L'IA ne doit pas accroitre la fracture numérique ou créer des discriminations.
  • Le travail social doit préserver l'analyse de la complexité et de l'histoire singulière de chaque personne.

Usages acceptables vs inacceptables :

  • L'IA n'a pas sa place dans l'évaluation, le recueil de données ou l'accompagnement direct, qui nécessitent une présence humaine et une écoute du langage non verbal.
  • Elle peut être utilisée pour des tâches annexes comme la structuration de courriers ou de rapports sociaux, à condition que le professionnel garde la main sur le fond.
Progrès et risques sociétaux :
  • Crainte d'une logique purement quantitative (faire plus avec moins de moyens) et d'un épuisement professionnel.
  • Opportunités de compensation de certains handicaps (troubles dys, surdité) et aide à l'innovation sociale
  • Le webinaire rappelle l'impact énergétique important de ces technologies.

En résumé :

"Tant que c'est dit, c'est dit ... C'est tout!"

_ Auteur de la citation

Exemple : idées dans un champs d’accompagnement lors de l’élaboration du projet personnalisé ...