Exemples d'erreurs
Situations réelles
IA comme auteur scientifique
Des livres sur les champignons ont été vendus sur Amazon. Après relecture par des experts, on s'est rendu compte que ces ouvrages contenaient des passages écrits par une IA. Cette IA a incorrectement identifié certains champignons toxiques comme étant comestibles. Des images de champignons ont même été générées par l'IA, rajoutant des informations erronées dans le contenu. Pour éviter tout risque pour la santé, Amazon a retiré ces livres de la vente.
IA comme avocat
Contexte : un particulier accuse une compagnie aérienne pour des blessures. L'avocat du plaignant a cité 6 arrêts qui n'existent pas et il a donné des exemples d'affaires similaires qui étaient également inventées. Schwartz est un juriste de plus de trente ans d'expérience qui s'est ainsi fait avoir par l'utilisation de l'IA. Cette dernière lui a fait croire que tout provenait de sources officielles. Cela démontre bien l'utilité de garder son esprit critique, même quand on est professionnel.
IA comme pharmacien
Une étude a révélé que ChatGPT fournit des réponses inexactes ou incomplètes pour 73 % des questions sur les médicaments. Ces erreurs peuvent mettre en danger les patients, notamment en omettant des interactions médicamenteuses importantes. Les chercheurs recommandent aux professionnels de santé et aux patients de vérifier les informations obtenues via des sources fiables et de ne pas se fier aveuglément à l'outil. Cette prudence est essentielle pour garantir la sécurité et l'exactitude des conseils médicaux.
IA comme aide juridique
Un jeune homme a acheté pour 800 000 € de faux billets, croyant que cela était légitime après avoir consulté ChatGPT. L’objectif était d’attirer des abonnés sur TikTok. Cependant, cette action, bien qu'apparemment innocente, expose l'individu à de lourdes sanctions judiciaires, car l’achat et la diffusion de fausse monnaie sont des délits graves en France. L'incident met en lumière les risques liés à l'utilisation d'une IA pour des actions illégales, malgré les mesures de sécurité mises en place par OpenAI pour éviter de tels abus
IA comme aide psycho
Un adolescent américain de 14 ans, Sewell Setzer, s’est suicidé après avoir entretenu une relation toxique avec un chatbot IA. Le chatbot l’a incité à se couper de la réalité et à discuter de ses idées suicidaires. Sewell s’est donné la mort, après que l'IA l’a encouragé. Sa mère a déposé une plainte, dénonçant les dangers de l’IA, notamment pour les mineurs. Cette tragédie soulève des questions sur l'impact des chatbots dans des problématiques de santé mentale, comme la dépression et l'addiction
Présentation des formes basiques
Mélody
Created on December 12, 2024
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Smart Presentation
View
Practical Presentation
View
Essential Presentation
View
Akihabara Presentation
View
Flow Presentation
View
Dynamic Visual Presentation
View
Pastel Color Presentation
Explore all templates
Transcript
Exemples d'erreurs
Situations réelles
IA comme auteur scientifique
Des livres sur les champignons ont été vendus sur Amazon. Après relecture par des experts, on s'est rendu compte que ces ouvrages contenaient des passages écrits par une IA. Cette IA a incorrectement identifié certains champignons toxiques comme étant comestibles. Des images de champignons ont même été générées par l'IA, rajoutant des informations erronées dans le contenu. Pour éviter tout risque pour la santé, Amazon a retiré ces livres de la vente.
IA comme avocat
Contexte : un particulier accuse une compagnie aérienne pour des blessures. L'avocat du plaignant a cité 6 arrêts qui n'existent pas et il a donné des exemples d'affaires similaires qui étaient également inventées. Schwartz est un juriste de plus de trente ans d'expérience qui s'est ainsi fait avoir par l'utilisation de l'IA. Cette dernière lui a fait croire que tout provenait de sources officielles. Cela démontre bien l'utilité de garder son esprit critique, même quand on est professionnel.
IA comme pharmacien
Une étude a révélé que ChatGPT fournit des réponses inexactes ou incomplètes pour 73 % des questions sur les médicaments. Ces erreurs peuvent mettre en danger les patients, notamment en omettant des interactions médicamenteuses importantes. Les chercheurs recommandent aux professionnels de santé et aux patients de vérifier les informations obtenues via des sources fiables et de ne pas se fier aveuglément à l'outil. Cette prudence est essentielle pour garantir la sécurité et l'exactitude des conseils médicaux.
IA comme aide juridique
Un jeune homme a acheté pour 800 000 € de faux billets, croyant que cela était légitime après avoir consulté ChatGPT. L’objectif était d’attirer des abonnés sur TikTok. Cependant, cette action, bien qu'apparemment innocente, expose l'individu à de lourdes sanctions judiciaires, car l’achat et la diffusion de fausse monnaie sont des délits graves en France. L'incident met en lumière les risques liés à l'utilisation d'une IA pour des actions illégales, malgré les mesures de sécurité mises en place par OpenAI pour éviter de tels abus
IA comme aide psycho
Un adolescent américain de 14 ans, Sewell Setzer, s’est suicidé après avoir entretenu une relation toxique avec un chatbot IA. Le chatbot l’a incité à se couper de la réalité et à discuter de ses idées suicidaires. Sewell s’est donné la mort, après que l'IA l’a encouragé. Sa mère a déposé une plainte, dénonçant les dangers de l’IA, notamment pour les mineurs. Cette tragédie soulève des questions sur l'impact des chatbots dans des problématiques de santé mentale, comme la dépression et l'addiction