¿Qué es una decisión moral? Es una elección que implica valores humanos como el respeto, la justicia, la empatía y el bienestar de otros. Requiere conciencia, intención y responsabilidad.
¿Puede una IA
TOMAR DECISIONES
MORALES?
Ejemplos reales donde la IA enfrenta dilemas éticos:
Medicina: decidir qué paciente atender primero Justicia: evaluar riesgos de reincidencia.Educación: seleccionar estudiantes para becas. Recursos humanos: elegir candidatos para un empleo.
¿Qué hace una IA?
¿Puede decidir moralmente?
Una IA analiza datos, aprende patrones y ejecuta tareas según algoritmos. No tiene emociones, conciencia ni valores propios. Solo simula decisiones basadas en lo que los humanos le enseñan.
No completamente.Aunque puede ayudar en dilemas éticos (como elegir entre dos riesgos en un auto autónomo), no comprende el significado moral de sus acciones. Sus decisiones dependen de cómo fue programada y entrenada.
Datos
¿Qué riesgos existen?
Conclusión:
Sesgos ocultos: si los datos están mal, la IA puede discriminar. Falta de empatía: no puede entender el sufrimiento humano. Responsabilidad difusa: ¿quién responde si la IA se equivoca?
Sesgos ocultos: si los datos están mal, la IA puede discriminar. Falta de empatía: no puede entender el sufrimiento humano. Responsabilidad difusa: ¿quién responde si la IA se equivoca?
TOMAR DECISIONES
Isabela Anaya Estrada
Created on November 4, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Halloween Infographic
View
Halloween List 3D
View
Magic and Sorcery List
View
Journey Map
View
Versus Character
View
Akihabara Connectors Infographic Mobile
View
Mobile mockup infographic
Explore all templates
Transcript
¿Qué es una decisión moral? Es una elección que implica valores humanos como el respeto, la justicia, la empatía y el bienestar de otros. Requiere conciencia, intención y responsabilidad.
¿Puede una IA
TOMAR DECISIONES
MORALES?
Ejemplos reales donde la IA enfrenta dilemas éticos:
Medicina: decidir qué paciente atender primero Justicia: evaluar riesgos de reincidencia.Educación: seleccionar estudiantes para becas. Recursos humanos: elegir candidatos para un empleo.
¿Qué hace una IA?
¿Puede decidir moralmente?
Una IA analiza datos, aprende patrones y ejecuta tareas según algoritmos. No tiene emociones, conciencia ni valores propios. Solo simula decisiones basadas en lo que los humanos le enseñan.
No completamente.Aunque puede ayudar en dilemas éticos (como elegir entre dos riesgos en un auto autónomo), no comprende el significado moral de sus acciones. Sus decisiones dependen de cómo fue programada y entrenada.
Datos
¿Qué riesgos existen?
Conclusión:
Sesgos ocultos: si los datos están mal, la IA puede discriminar. Falta de empatía: no puede entender el sufrimiento humano. Responsabilidad difusa: ¿quién responde si la IA se equivoca?
Sesgos ocultos: si los datos están mal, la IA puede discriminar. Falta de empatía: no puede entender el sufrimiento humano. Responsabilidad difusa: ¿quién responde si la IA se equivoca?