Want to create interactive content? It’s easy in Genially!

Get started free

Présentation des formes basiques

Mélody

Created on December 12, 2024

Start designing with a free template

Discover more than 1500 professional designs like these:

Smart Presentation

Practical Presentation

Essential Presentation

Akihabara Presentation

Flow Presentation

Dynamic Visual Presentation

Pastel Color Presentation

Transcript

Exemples d'erreurs

Situations réelles

IA comme auteur scientifique

Des livres sur les champignons ont été vendus sur Amazon. Après relecture par des experts, on s'est rendu compte que ces ouvrages contenaient des passages écrits par une IA. Cette IA a incorrectement identifié certains champignons toxiques comme étant comestibles. Des images de champignons ont même été générées par l'IA, rajoutant des informations erronées dans le contenu. Pour éviter tout risque pour la santé, Amazon a retiré ces livres de la vente.

IA comme avocat

Contexte : un particulier accuse une compagnie aérienne pour des blessures. L'avocat du plaignant a cité 6 arrêts qui n'existent pas et il a donné des exemples d'affaires similaires qui étaient également inventées. Schwartz est un juriste de plus de trente ans d'expérience qui s'est ainsi fait avoir par l'utilisation de l'IA. Cette dernière lui a fait croire que tout provenait de sources officielles. Cela démontre bien l'utilité de garder son esprit critique, même quand on est professionnel.

IA comme pharmacien

Une étude a révélé que ChatGPT fournit des réponses inexactes ou incomplètes pour 73 % des questions sur les médicaments. Ces erreurs peuvent mettre en danger les patients, notamment en omettant des interactions médicamenteuses importantes. Les chercheurs recommandent aux professionnels de santé et aux patients de vérifier les informations obtenues via des sources fiables et de ne pas se fier aveuglément à l'outil. Cette prudence est essentielle pour garantir la sécurité et l'exactitude des conseils médicaux.

IA comme aide juridique

Un jeune homme a acheté pour 800 000 € de faux billets, croyant que cela était légitime après avoir consulté ChatGPT. L’objectif était d’attirer des abonnés sur TikTok. Cependant, cette action, bien qu'apparemment innocente, expose l'individu à de lourdes sanctions judiciaires, car l’achat et la diffusion de fausse monnaie sont des délits graves en France. L'incident met en lumière les risques liés à l'utilisation d'une IA pour des actions illégales, malgré les mesures de sécurité mises en place par OpenAI pour éviter de tels abus

IA comme aide psycho

Un adolescent américain de 14 ans, Sewell Setzer, s’est suicidé après avoir entretenu une relation toxique avec un chatbot IA. Le chatbot l’a incité à se couper de la réalité et à discuter de ses idées suicidaires. Sewell s’est donné la mort, après que l'IA l’a encouragé. Sa mère a déposé une plainte, dénonçant les dangers de l’IA, notamment pour les mineurs. Cette tragédie soulève des questions sur l'impact des chatbots dans des problématiques de santé mentale, comme la dépression et l'addiction