Corrientes filosoficas
¿Como las corrientes pueden aplicarse en decisiones tomadas por IA?
Tipos de IA
¿Que es la etica?
Ejemplos de dilemas eticos con la IA
Patricio Karim Cmarillo ReyesHoracio Alexandro Puentes Gustavo Navarro Ramos Yostin Esparza Gonzalez Diego Arturo Pasos Pozos
Soluciones o recomendaciones eticas
Evaluacion de decisiones por IA
¿Que principios eticos deben guiar el desarrollo de IA?
SOLUCIONES
1. Diseñar IA con equidad
- Usar datos diversos para evitar sesgos.
- Evaluar el impacto en grupos vulnerables antes de implementar sistemas.
2. Garantizar transparencia
- Explicar cómo funciona la IA y cómo toma decisiones.
- Permitir auditorías externas y acceso público a criterios clave.
3. Proteger la privacidad
- Recoger solo los datos necesarios.
- Obtener consentimiento claro y proteger la información personal.
4. Establecer responsabilidad
- Definir quién responde legalmente por errores o daños causados por IA.
- Crear marcos legales que regulen su uso ético.
5. Fomentar el cuidado y la empatía
- Diseñar IA que respete el contexto humano, emocional y social.
- Priorizar el bienestar de las personas.
EJEMPLOS
Autos autónomos
- Dilema: ¿Salvar al pasajero o al peatón en un accidente inevitable?
- Ética: ¿Quién decide qué vida vale más?
Algoritmos de justicia (COMPAS)
- Dilema: IA usada en tribunales mostraba sesgos raciales al predecir reincidencia.
- Ética: ¿Es justo usar sistemas que no son transparentes ni imparciales?
IA en salud
- Dilema: Diagnósticos erróneos por datos sesgados (por ejemplo, menos precisión en minorías).
- Ética: ¿Cómo garantizar equidad y responsabilidad en decisiones médicas automatizadas?
EVALUACION DE DECISIONES
Autos autónomos
- Decisión: Priorizar vidas según cálculos de daño.
- Consecuencia: Puede salvar más personas (utilitarismo), pero genera dudas sobre quién decide el valor de cada vida (deontología).
- Riesgo: Pérdida de confianza si las decisiones no son transparentes.
Algoritmos de justicia (COMPAS)
- Decisión: Evaluar riesgo de reincidencia con IA.
- Consecuencia: Discriminación racial y falta de equidad.
- Riesgo: Injusticias legales y violación de derechos humanos (deontología).
IA en salud
- Decisión: Diagnóstico automatizado con datos sesgados.
- Consecuencia: Errores médicos en grupos vulnerables.
- Riesgo: Desigualdad en atención médica (ética del cuidado), pérdida de confianza en el sistema.
CORRIENTES FILOSOFICAS RELEVANTES
Utilitarismo
- Busca el mayor beneficio para el mayor número de personas.
- Ejemplo en IA: Usar algoritmos que optimicen recursos para beneficiar a la mayoría.
Deontología
- Actuar según reglas morales, sin importar el resultado.
- Ejemplo en IA: No usar IA para espiar, aunque eso reduzca el crimen.
Ética del cuidado
- Valora las relaciones, la empatía y el contexto humano.
- Ejemplo en IA: Diseñar sistemas que apoyen emocionalmente a estudiantes o pacientes.
TIPOS DE IA Y FUNCIONES ACTUAES
1. IA débil o estrecha (Narrow AI)
- Descripción: Especializada en una sola tarea.
- Ejemplos: Asistentes virtuales como Siri, Alexa o Copilot.
- Sistemas de recomendación (Netflix, Spotify).
- Reconocimiento facial y de voz.
2. IA general (AGI - Artificial General Intelligence)
- Descripción: Capaz de realizar cualquier tarea cognitiva humana. Aún en desarrollo.
- Ejemplo: No existe aún, pero se investiga en laboratorios como OpenAI, DeepMind.
3. IA superinteligente
- Descripción: Superaría la inteligencia humana en todos los aspectos. Es una hipótesis futura.
- Ejemplo: No existe actualmente.
PRINCIPIOS ETICOS
1. Justicia
- Evitar sesgos y discriminación.
- Garantizar que la IA trate a todos por igual, sin importar origen, género o condición.
2. Transparencia
- Explicar cómo y por qué la IA toma decisiones.
- Permitir auditorías y comprensión pública de los algoritmos.
3. Privacidad
- Proteger los datos personales.
- Usar la información de forma segura y con consentimiento.
4. Responsabilidad
- Definir quién responde por errores o daños causados por IA.
- Establecer normas claras para su uso.
5. Empatía y cuidado
- Diseñar IA que considere el contexto humano.
- Priorizar el bienestar de las personas, especialmente las más vulnerables.
COMO PUEDEN APLICARSE
Utilitarismo
- Decisión basada en el beneficio colectivo.
- Ejemplo: Una IA médica prioriza tratamientos para pacientes con mayor probabilidad de sobrevivir, maximizando vidas salvadas.
Deontología
- Decisión basada en reglas morales, no en resultados.
- Ejemplo: Una IA rechaza compartir datos personales sin consentimiento, aunque eso ayude a mejorar servicios.
Ética del cuidado
- Decisión basada en empatía y relaciones humanas.
- Ejemplo: Una IA educativa adapta el contenido según las emociones y necesidades del estudiante, no solo su rendimiento.
¿Que es la etica y como se relaciona con IA?
La etica es una rama que estudia el comportamiento humano, en relacion con lo que esta bien, o no. La relacion entre etica e IA es cada vz mas grande, influye en la privacidad y datos personales, por ejemplo: La IA suele trabajar con gran cantidad de datos, y la etica exige que se respete los derechos y privacidad de las personas.
Tipos de IA
pato
Created on November 3, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Customer Profile
View
Movie Infographic
View
Interactive QR Code Generator
View
Advent Calendar
View
Tree of Wishes
View
Witchcraft vertical Infographic
View
Halloween Horizontal Infographic
Explore all templates
Transcript
Corrientes filosoficas
¿Como las corrientes pueden aplicarse en decisiones tomadas por IA?
Tipos de IA
¿Que es la etica?
Ejemplos de dilemas eticos con la IA
Patricio Karim Cmarillo ReyesHoracio Alexandro Puentes Gustavo Navarro Ramos Yostin Esparza Gonzalez Diego Arturo Pasos Pozos
Soluciones o recomendaciones eticas
Evaluacion de decisiones por IA
¿Que principios eticos deben guiar el desarrollo de IA?
SOLUCIONES
1. Diseñar IA con equidad
- Usar datos diversos para evitar sesgos.
- Evaluar el impacto en grupos vulnerables antes de implementar sistemas.
2. Garantizar transparencia- Explicar cómo funciona la IA y cómo toma decisiones.
- Permitir auditorías externas y acceso público a criterios clave.
3. Proteger la privacidad- Recoger solo los datos necesarios.
- Obtener consentimiento claro y proteger la información personal.
4. Establecer responsabilidad- Definir quién responde legalmente por errores o daños causados por IA.
- Crear marcos legales que regulen su uso ético.
5. Fomentar el cuidado y la empatíaEJEMPLOS
Autos autónomos
- Dilema: ¿Salvar al pasajero o al peatón en un accidente inevitable?
- Ética: ¿Quién decide qué vida vale más?
Algoritmos de justicia (COMPAS)- Dilema: IA usada en tribunales mostraba sesgos raciales al predecir reincidencia.
- Ética: ¿Es justo usar sistemas que no son transparentes ni imparciales?
IA en saludEVALUACION DE DECISIONES
Autos autónomos
- Decisión: Priorizar vidas según cálculos de daño.
- Consecuencia: Puede salvar más personas (utilitarismo), pero genera dudas sobre quién decide el valor de cada vida (deontología).
- Riesgo: Pérdida de confianza si las decisiones no son transparentes.
Algoritmos de justicia (COMPAS)- Decisión: Evaluar riesgo de reincidencia con IA.
- Consecuencia: Discriminación racial y falta de equidad.
- Riesgo: Injusticias legales y violación de derechos humanos (deontología).
IA en saludCORRIENTES FILOSOFICAS RELEVANTES
Utilitarismo
- Busca el mayor beneficio para el mayor número de personas.
- Ejemplo en IA: Usar algoritmos que optimicen recursos para beneficiar a la mayoría.
Deontología- Actuar según reglas morales, sin importar el resultado.
- Ejemplo en IA: No usar IA para espiar, aunque eso reduzca el crimen.
Ética del cuidadoTIPOS DE IA Y FUNCIONES ACTUAES
1. IA débil o estrecha (Narrow AI)
- Sistemas de recomendación (Netflix, Spotify).
- Reconocimiento facial y de voz.
2. IA general (AGI - Artificial General Intelligence)- Descripción: Capaz de realizar cualquier tarea cognitiva humana. Aún en desarrollo.
- Ejemplo: No existe aún, pero se investiga en laboratorios como OpenAI, DeepMind.
3. IA superinteligentePRINCIPIOS ETICOS
1. Justicia
- Evitar sesgos y discriminación.
- Garantizar que la IA trate a todos por igual, sin importar origen, género o condición.
2. Transparencia- Explicar cómo y por qué la IA toma decisiones.
- Permitir auditorías y comprensión pública de los algoritmos.
3. Privacidad- Proteger los datos personales.
- Usar la información de forma segura y con consentimiento.
4. Responsabilidad- Definir quién responde por errores o daños causados por IA.
- Establecer normas claras para su uso.
5. Empatía y cuidadoCOMO PUEDEN APLICARSE
Utilitarismo
- Decisión basada en el beneficio colectivo.
- Ejemplo: Una IA médica prioriza tratamientos para pacientes con mayor probabilidad de sobrevivir, maximizando vidas salvadas.
Deontología- Decisión basada en reglas morales, no en resultados.
- Ejemplo: Una IA rechaza compartir datos personales sin consentimiento, aunque eso ayude a mejorar servicios.
Ética del cuidado¿Que es la etica y como se relaciona con IA?
La etica es una rama que estudia el comportamiento humano, en relacion con lo que esta bien, o no. La relacion entre etica e IA es cada vz mas grande, influye en la privacidad y datos personales, por ejemplo: La IA suele trabajar con gran cantidad de datos, y la etica exige que se respete los derechos y privacidad de las personas.