Want to create interactive content? It’s easy in Genially!

Get started free

6.2 Riesgos técnicos y humanos

LAE INNOVA

Created on October 21, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Math Lesson Plan

Primary Unit Plan 2

Animated Chalkboard Learning Unit

Business Learning Unit

Corporate Signature Learning Unit

Code Training Unit

History Unit plan

Transcript

RIESGOS TÉCNICOS Y HUMANOS

¿Qué puede salir mal incluso cuando usamos la IA correctamente?

Empezar

ÍNDICE

PRIVACIDAD Y PROTECCIÓN DE DATOS

ERRORES Y ALUCINACIONES

DEPENDENCIA TECNOLÓGICA

SESGOS ALGORÍTMICOS

Errores y alucinaciones

Errores y alucinaciones

La IA no se equivoca… hasta que lo hace

Las “alucinaciones” en inteligencia artificial no son metáforas poéticas: Se trata de errores de generación en los que el sistema produce información falsa o inventada, pero expresada con total coherencia lingüística y aparente seguridad.

Saber más

Errores y alucinaciones

Mini caso

¿Por qué es relevante para la administración de fincas?

¿Cómo prevenirlo?

  1. Verificación cruzada: comprobar toda información generada por IA con fuentes oficiales (leyes, estatutos, registros).
  2. Uso de prompts contextualizados: cuanto más preciso sea el contexto que se le da al sistema, menos riesgo de alucinación.
  3. Protocolos de revisión humana: ningún documento automatizado debe circular sin validación profesional.

En contextos profesionales, este riesgo puede traducirse en:

  • Actas con referencias erróneas a normativas o acuerdos.
  • Informes con datos inventados (nombres, fechas, importes).
  • Traducciones o interpretaciones jurídicas inexactas.

ejemplo

Privacidad y protección de datos

Privacidad y protección de datos

El riesgo técnico y legal

El mayor riesgo no proviene de lo que la IA dice, sino de lo que recuerda y procesa. Las herramientas de IA alojadas en la nube utilizan servidores externos (normalmente fuera de la UE), donde los datos pueden quedar registrados temporalmente.

LOPD

Privacidad y protección de datos

Ejemplo aplicado

Un administrador de fincas copia en una herramienta de IA un listado de vecinos o una minuta con datos personales para generar un correo o informe. Aunque no los publique, ya ha transferido esos datos a un tercero sin consentimiento explícito ni base jurídica suficiente. Esto podría constituir una infracción grave de la normativa europea de protección de datos.

Privacidad y protección de datos

Medidas preventivas

Anonimización y pseudonimización
Uso de entornos cerrados
Evaluaciones de impacto (DPIA)
Consentimiento informado

Sustituir nombres y datos reales por identificadores.

Emplear versiones corporativas o locales de IA (no públicas).

Protocolo obligatorio en usos intensivos de IA según el AI Act europeo (2024).

Comunicar claramente cuándo se usan sistemas automáticos que procesan datos personales.

Sesgos algorítmicos

Sesgos algorítmicos

Un sesgo algorítmico es una distorsión sistemática en el resultado de una IA debido a los datos con los que fue entrenada o al diseño de sus procesos. La IA “aprende” patrones existentes; si esos patrones contienen desigualdad, la IA la replica y amplifica (Barocas & Selbst, Big Data’s Disparate Impact, 2016). Los sesgos no son fallos aislados, sino estructurales: están incrustados en los datos y las decisiones de diseño.

Tipos de sesgos comunes

Sesgos algorítmicos

¿Por qué es un riesgo ético?

Sesgos de automatización

Las personas confían demasiado en la decisión algorítmica

Se elige un proveedor solo porque el sistema lo recomendó.

Sesgos de interpretación

El modelo interpreta patrones sociales como “preferencias”

Genera textos más formales o amables para hombres que para mujeres, según entrenamiento lingüístico.

Sesgos de datos

Datos incompletos o desbalanceados

El sistema prioriza ciertos tipos de incidencias porque aparecen más en su base de datos.

DETECTA EL SESGO

Ejercicio

Detecta el sesgo

“Las máquinas aprenden de nuestros datos… y también de nuestros errores.En esta actividad vas a descubrir cómo se cuelan los sesgos en las decisiones automáticas.”

Empezar

Ejercicio

Tres caras del sesgo

🔢 Sesgo de datos → “Datos incompletos o desequilibrados generan resultados injustos.” 🧠 Sesgo de interpretación → “El modelo asume patrones sociales como preferencias.” ⚙️ Sesgo de automatización → “Las personas confían demasiado en la IA sin revisar.”

Comenzar reto

Ejercicio

Cuestionario

Siguiente

Ejercicio

Cuestionario

Siguiente

Ejercicio

Cuestionario

Siguiente

Ejercicio

Resultados

3 aciertos → “Excelente: detectas sesgos antes de que afecten tus decisiones.”2 aciertos → “Buen criterio: reconoce los sesgos, pero revisa tus propios hábitos.” 1 o menos → “Atención: los sesgos invisibles son los más peligrosos. Revisa cómo tomas decisiones.”
💡 “Piensa en una tarea que realices con ayuda de IA.¿Qué tipo de sesgo podría influir sin que te dieras cuenta?”

finalizar

Dependencia tecnológica

Más allá del riesgo técnico, existe el riesgo humano de dependencia: delegar en la IA no por eficiencia, sino por hábito o comodidad cognitiva. El cerebro tiende a externalizar la carga mental (Kahneman, Thinking, Fast and Slow, 2011). En contextos laborales, esto puede reducir la capacidad crítica y la autonomía profesional.

Dependencia tecnológica

Manifestaciones comunes

04

03

02

01

Aceptar sin contraste las recomendaciones automatizadas.

Revisar menos los textos porque “la IA lo hace bien”.

Perder práctica en tareas básicas (redacción, cálculo, argumentación).

Disminuir la comunicación interpersonal en equipos de trabajo.

Riesgos asociados

conclusiones

Conclusión clave

La ética profesional ante la IA no consiste en prohibir o temer la tecnología, sino en dominarla con criterio. Conocer los riesgos técnicos (errores, sesgos, vulneraciones de privacidad) y humanos (dependencia, desresponsabilización) permite establecer protocolos preventivos y formativos. “El mayor avance tecnológico es saber cuándo no delegar.”

Reflexiones

💬 ¿Qué ocurriría si una IA redacta un acta con un acuerdo inexistente y nadie lo detecta antes de enviarlo a los propietarios? 💬¿Cómo podemos detectar si un mensaje generado por IA está transmitiendo un prejuicio o una desigualdad sin darnos cuenta? 💬 ¿Hasta qué punto es sano depender de una IA para redactar, decidir o comunicar en nombre de una comunidad?

FIN

¿Por qué es un riesgo ético?

Porque afecta directamente a la imparcialidad profesional. La IA no tiene intención discriminatoria, pero puede producir resultados injustos que el profesional no detecta. Esto contradice los principios del AI Act de la UE (2024), que obliga a garantizar “equidad, transparencia y control humano” en toda decisión automatizada.

¿Cómo mitigarlo?

Situación:
  • Un administrador genera un acta con IA.
  • La herramienta añade una votación que nunca se realizó.
  • Nadie lo nota hasta que un vecino reclama.

Usa esta cara de la tarjeta para dar más información sobre un tema. Focalízate en un concepto. Haz que el aprendizaje y la comunicación sean más eficientes.

La IA no falló: quien falló fue quien no revisó.

¿Dónde falló realmente el proceso?

Título

Escribe aquí una descripción breve

Riesgos asociados

  • Erosión del juicio profesional: el administrador actúa como validador pasivo.
  • Despersonalización del servicio: la comunidad percibe menos contacto humano.
  • Brecha competencial: los profesionales que no cultivan pensamiento crítico dependen más del sistema.

📊 Estudios del MIT (2024) muestran que el uso intensivo de IA sin acompañamiento formativo puede reducir hasta un 30 % la capacidad de revisión crítica en tareas de oficina.

¿Cómo prevenirla?

Esto entra en conflicto directo con el Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica 3/2018, de Protección de Datos (LOPD), especialmente en tres artículos clave:

  • Art. 5 RGPD: Principio de minimización de datos.
  • Art. 32 RGPD: Seguridad del tratamiento.
  • Art. 35 RGPD: Evaluaciones de impacto en protección de datos.

Este fenómeno está ampliamente documentado (Maynez et al., Faithfulness in Natural Language Generation, 2020; OpenAI Technical Reports, 2023).

  • Ocurre porque los modelos como ChatGPT no “entienden” el contenido: predicen la siguiente palabra más probable.
  • Cuando carecen de datos verificados o el contexto es ambiguo, el modelo “rellena huecos” estadísticamente, no lógicamente.