RIESGOS TÉCNICOS Y HUMANOS
¿Qué puede salir mal incluso cuando usamos la IA correctamente?
Empezar
ÍNDICE
PRIVACIDAD Y PROTECCIÓN DE DATOS
ERRORES Y ALUCINACIONES
DEPENDENCIA TECNOLÓGICA
SESGOS ALGORÍTMICOS
Errores y alucinaciones
Errores y alucinaciones
La IA no se equivoca… hasta que lo hace
Las “alucinaciones” en inteligencia artificial no son metáforas poéticas:
Se trata de errores de generación en los que el sistema produce información falsa o inventada, pero expresada con total coherencia lingüística y aparente seguridad.
Saber más
Errores y alucinaciones
Mini caso
¿Por qué es relevante para la administración de fincas?
¿Cómo prevenirlo?
- Verificación cruzada: comprobar toda información generada por IA con fuentes oficiales (leyes, estatutos, registros).
- Uso de prompts contextualizados: cuanto más preciso sea el contexto que se le da al sistema, menos riesgo de alucinación.
- Protocolos de revisión humana: ningún documento automatizado debe circular sin validación profesional.
En contextos profesionales, este riesgo puede traducirse en:
- Actas con referencias erróneas a normativas o acuerdos.
- Informes con datos inventados (nombres, fechas, importes).
- Traducciones o interpretaciones jurídicas inexactas.
ejemplo
Privacidad y protección de datos
Privacidad y protección de datos
El riesgo técnico y legal
El mayor riesgo no proviene de lo que la IA dice, sino de lo que recuerda y procesa. Las herramientas de IA alojadas en la nube utilizan servidores externos (normalmente fuera de la UE), donde los datos pueden quedar registrados temporalmente.
LOPD
Privacidad y protección de datos
Ejemplo aplicado
Un administrador de fincas copia en una herramienta de IA un listado de vecinos o una minuta con datos personales para generar un correo o informe.
Aunque no los publique, ya ha transferido esos datos a un tercero sin consentimiento explícito ni base jurídica suficiente.
Esto podría constituir una infracción grave de la normativa europea de protección de datos.
Privacidad y protección de datos
Medidas preventivas
Anonimización y pseudonimización
Uso de entornos cerrados
Evaluaciones de impacto (DPIA)
Consentimiento informado
Sustituir nombres y datos reales por identificadores.
Emplear versiones corporativas o locales de IA (no públicas).
Protocolo obligatorio en usos intensivos de IA según el AI Act europeo (2024).
Comunicar claramente cuándo se usan sistemas automáticos que procesan datos personales.
Sesgos algorítmicos
Sesgos algorítmicos
Un sesgo algorítmico es una distorsión sistemática en el resultado de una IA debido a los datos con los que fue entrenada o al diseño de sus procesos.
La IA “aprende” patrones existentes; si esos patrones contienen desigualdad, la IA la replica y amplifica (Barocas & Selbst, Big Data’s Disparate Impact, 2016). Los sesgos no son fallos aislados, sino estructurales: están incrustados en los datos y las decisiones de diseño.
Tipos de sesgos comunes
Sesgos algorítmicos
¿Por qué es un riesgo ético?
Sesgos de automatización
Las personas confían demasiado en la decisión algorítmica
Se elige un proveedor solo porque el sistema lo recomendó.
Sesgos de interpretación
El modelo interpreta patrones sociales como “preferencias”
Genera textos más formales o amables para hombres que para mujeres, según entrenamiento lingüístico.
Sesgos de datos
Datos incompletos o desbalanceados
El sistema prioriza ciertos tipos de incidencias porque aparecen más en su base de datos.
DETECTA EL SESGO
Ejercicio
Detecta el sesgo
“Las máquinas aprenden de nuestros datos… y también de nuestros errores.En esta actividad vas a descubrir cómo se cuelan los sesgos en las decisiones automáticas.”
Empezar
Ejercicio
Tres caras del sesgo
🔢 Sesgo de datos → “Datos incompletos o desequilibrados generan resultados injustos.” 🧠 Sesgo de interpretación → “El modelo asume patrones sociales como preferencias.” ⚙️ Sesgo de automatización → “Las personas confían demasiado en la IA sin revisar.”
Comenzar reto
Ejercicio
Cuestionario
Siguiente
Ejercicio
Cuestionario
Siguiente
Ejercicio
Cuestionario
Siguiente
Ejercicio
Resultados
3 aciertos → “Excelente: detectas sesgos antes de que afecten tus decisiones.”2 aciertos → “Buen criterio: reconoce los sesgos, pero revisa tus propios hábitos.” 1 o menos → “Atención: los sesgos invisibles son los más peligrosos. Revisa cómo tomas decisiones.”
💡 “Piensa en una tarea que realices con ayuda de IA.¿Qué tipo de sesgo podría influir sin que te dieras cuenta?”
finalizar
Dependencia tecnológica
Más allá del riesgo técnico, existe el riesgo humano de dependencia: delegar en la IA no por eficiencia, sino por hábito o comodidad cognitiva.
El cerebro tiende a externalizar la carga mental (Kahneman, Thinking, Fast and Slow, 2011).
En contextos laborales, esto puede reducir la capacidad crítica y la autonomía profesional.
Dependencia tecnológica
Manifestaciones comunes
04
03
02
01
Aceptar sin contraste las recomendaciones automatizadas.
Revisar menos los textos porque “la IA lo hace bien”.
Perder práctica en tareas básicas (redacción, cálculo, argumentación).
Disminuir la comunicación interpersonal en equipos de trabajo.
Riesgos asociados
conclusiones
Conclusión clave
La ética profesional ante la IA no consiste en prohibir o temer la tecnología, sino en dominarla con criterio.
Conocer los riesgos técnicos (errores, sesgos, vulneraciones de privacidad) y humanos (dependencia, desresponsabilización) permite establecer protocolos preventivos y formativos. “El mayor avance tecnológico es saber cuándo no delegar.”
Reflexiones
💬 ¿Qué ocurriría si una IA redacta un acta con un acuerdo inexistente y nadie lo detecta antes de enviarlo a los propietarios?
💬¿Cómo podemos detectar si un mensaje generado por IA está transmitiendo un prejuicio o una desigualdad sin darnos cuenta? 💬 ¿Hasta qué punto es sano depender de una IA para redactar, decidir o comunicar en nombre de una comunidad?
FIN
¿Por qué es un riesgo ético?
Porque afecta directamente a la imparcialidad profesional. La IA no tiene intención discriminatoria, pero puede producir resultados injustos que el profesional no detecta. Esto contradice los principios del AI Act de la UE (2024), que obliga a garantizar “equidad, transparencia y control humano” en toda decisión automatizada.
¿Cómo mitigarlo?
Situación:
- Un administrador genera un acta con IA.
- La herramienta añade una votación que nunca se realizó.
- Nadie lo nota hasta que un vecino reclama.
Usa esta cara de la tarjeta para dar más información sobre un tema. Focalízate en un concepto. Haz que el aprendizaje y la comunicación sean más eficientes.
La IA no falló: quien falló fue quien no revisó.
¿Dónde falló realmente el proceso?
Título
Escribe aquí una descripción breve
Riesgos asociados
- Erosión del juicio profesional: el administrador actúa como validador pasivo.
- Despersonalización del servicio: la comunidad percibe menos contacto humano.
- Brecha competencial: los profesionales que no cultivan pensamiento crítico dependen más del sistema.
📊 Estudios del MIT (2024) muestran que el uso intensivo de IA sin acompañamiento formativo puede reducir hasta un 30 % la capacidad de revisión crítica en tareas de oficina.
¿Cómo prevenirla?
Esto entra en conflicto directo con el Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica 3/2018, de Protección de Datos (LOPD), especialmente en tres artículos clave:
- Art. 5 RGPD: Principio de minimización de datos.
- Art. 32 RGPD: Seguridad del tratamiento.
- Art. 35 RGPD: Evaluaciones de impacto en protección de datos.
Este fenómeno está ampliamente documentado (Maynez et al., Faithfulness in Natural Language Generation, 2020; OpenAI Technical Reports, 2023).
- Ocurre porque los modelos como ChatGPT no “entienden” el contenido: predicen la siguiente palabra más probable.
- Cuando carecen de datos verificados o el contexto es ambiguo, el modelo “rellena huecos” estadísticamente, no lógicamente.
6.2 Riesgos técnicos y humanos
LAE INNOVA
Created on October 21, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Math Lesson Plan
View
Primary Unit Plan 2
View
Animated Chalkboard Learning Unit
View
Business Learning Unit
View
Corporate Signature Learning Unit
View
Code Training Unit
View
History Unit plan
Explore all templates
Transcript
RIESGOS TÉCNICOS Y HUMANOS
¿Qué puede salir mal incluso cuando usamos la IA correctamente?
Empezar
ÍNDICE
PRIVACIDAD Y PROTECCIÓN DE DATOS
ERRORES Y ALUCINACIONES
DEPENDENCIA TECNOLÓGICA
SESGOS ALGORÍTMICOS
Errores y alucinaciones
Errores y alucinaciones
La IA no se equivoca… hasta que lo hace
Las “alucinaciones” en inteligencia artificial no son metáforas poéticas: Se trata de errores de generación en los que el sistema produce información falsa o inventada, pero expresada con total coherencia lingüística y aparente seguridad.
Saber más
Errores y alucinaciones
Mini caso
¿Por qué es relevante para la administración de fincas?
¿Cómo prevenirlo?
En contextos profesionales, este riesgo puede traducirse en:
ejemplo
Privacidad y protección de datos
Privacidad y protección de datos
El riesgo técnico y legal
El mayor riesgo no proviene de lo que la IA dice, sino de lo que recuerda y procesa. Las herramientas de IA alojadas en la nube utilizan servidores externos (normalmente fuera de la UE), donde los datos pueden quedar registrados temporalmente.
LOPD
Privacidad y protección de datos
Ejemplo aplicado
Un administrador de fincas copia en una herramienta de IA un listado de vecinos o una minuta con datos personales para generar un correo o informe. Aunque no los publique, ya ha transferido esos datos a un tercero sin consentimiento explícito ni base jurídica suficiente. Esto podría constituir una infracción grave de la normativa europea de protección de datos.
Privacidad y protección de datos
Medidas preventivas
Anonimización y pseudonimización
Uso de entornos cerrados
Evaluaciones de impacto (DPIA)
Consentimiento informado
Sustituir nombres y datos reales por identificadores.
Emplear versiones corporativas o locales de IA (no públicas).
Protocolo obligatorio en usos intensivos de IA según el AI Act europeo (2024).
Comunicar claramente cuándo se usan sistemas automáticos que procesan datos personales.
Sesgos algorítmicos
Sesgos algorítmicos
Un sesgo algorítmico es una distorsión sistemática en el resultado de una IA debido a los datos con los que fue entrenada o al diseño de sus procesos. La IA “aprende” patrones existentes; si esos patrones contienen desigualdad, la IA la replica y amplifica (Barocas & Selbst, Big Data’s Disparate Impact, 2016). Los sesgos no son fallos aislados, sino estructurales: están incrustados en los datos y las decisiones de diseño.
Tipos de sesgos comunes
Sesgos algorítmicos
¿Por qué es un riesgo ético?
Sesgos de automatización
Las personas confían demasiado en la decisión algorítmica
Se elige un proveedor solo porque el sistema lo recomendó.
Sesgos de interpretación
El modelo interpreta patrones sociales como “preferencias”
Genera textos más formales o amables para hombres que para mujeres, según entrenamiento lingüístico.
Sesgos de datos
Datos incompletos o desbalanceados
El sistema prioriza ciertos tipos de incidencias porque aparecen más en su base de datos.
DETECTA EL SESGO
Ejercicio
Detecta el sesgo
“Las máquinas aprenden de nuestros datos… y también de nuestros errores.En esta actividad vas a descubrir cómo se cuelan los sesgos en las decisiones automáticas.”
Empezar
Ejercicio
Tres caras del sesgo
🔢 Sesgo de datos → “Datos incompletos o desequilibrados generan resultados injustos.” 🧠 Sesgo de interpretación → “El modelo asume patrones sociales como preferencias.” ⚙️ Sesgo de automatización → “Las personas confían demasiado en la IA sin revisar.”
Comenzar reto
Ejercicio
Cuestionario
Siguiente
Ejercicio
Cuestionario
Siguiente
Ejercicio
Cuestionario
Siguiente
Ejercicio
Resultados
3 aciertos → “Excelente: detectas sesgos antes de que afecten tus decisiones.”2 aciertos → “Buen criterio: reconoce los sesgos, pero revisa tus propios hábitos.” 1 o menos → “Atención: los sesgos invisibles son los más peligrosos. Revisa cómo tomas decisiones.”
💡 “Piensa en una tarea que realices con ayuda de IA.¿Qué tipo de sesgo podría influir sin que te dieras cuenta?”
finalizar
Dependencia tecnológica
Más allá del riesgo técnico, existe el riesgo humano de dependencia: delegar en la IA no por eficiencia, sino por hábito o comodidad cognitiva. El cerebro tiende a externalizar la carga mental (Kahneman, Thinking, Fast and Slow, 2011). En contextos laborales, esto puede reducir la capacidad crítica y la autonomía profesional.
Dependencia tecnológica
Manifestaciones comunes
04
03
02
01
Aceptar sin contraste las recomendaciones automatizadas.
Revisar menos los textos porque “la IA lo hace bien”.
Perder práctica en tareas básicas (redacción, cálculo, argumentación).
Disminuir la comunicación interpersonal en equipos de trabajo.
Riesgos asociados
conclusiones
Conclusión clave
La ética profesional ante la IA no consiste en prohibir o temer la tecnología, sino en dominarla con criterio. Conocer los riesgos técnicos (errores, sesgos, vulneraciones de privacidad) y humanos (dependencia, desresponsabilización) permite establecer protocolos preventivos y formativos. “El mayor avance tecnológico es saber cuándo no delegar.”
Reflexiones
💬 ¿Qué ocurriría si una IA redacta un acta con un acuerdo inexistente y nadie lo detecta antes de enviarlo a los propietarios? 💬¿Cómo podemos detectar si un mensaje generado por IA está transmitiendo un prejuicio o una desigualdad sin darnos cuenta? 💬 ¿Hasta qué punto es sano depender de una IA para redactar, decidir o comunicar en nombre de una comunidad?
FIN
¿Por qué es un riesgo ético?
Porque afecta directamente a la imparcialidad profesional. La IA no tiene intención discriminatoria, pero puede producir resultados injustos que el profesional no detecta. Esto contradice los principios del AI Act de la UE (2024), que obliga a garantizar “equidad, transparencia y control humano” en toda decisión automatizada.
¿Cómo mitigarlo?
Situación:
Usa esta cara de la tarjeta para dar más información sobre un tema. Focalízate en un concepto. Haz que el aprendizaje y la comunicación sean más eficientes.
La IA no falló: quien falló fue quien no revisó.
¿Dónde falló realmente el proceso?
Título
Escribe aquí una descripción breve
Riesgos asociados
📊 Estudios del MIT (2024) muestran que el uso intensivo de IA sin acompañamiento formativo puede reducir hasta un 30 % la capacidad de revisión crítica en tareas de oficina.
¿Cómo prevenirla?
Esto entra en conflicto directo con el Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica 3/2018, de Protección de Datos (LOPD), especialmente en tres artículos clave:
Este fenómeno está ampliamente documentado (Maynez et al., Faithfulness in Natural Language Generation, 2020; OpenAI Technical Reports, 2023).