Want to create interactive content? It’s easy in Genially!

Get started free

6.3 Ética aplicada a la profesión

LAE INNOVA

Created on October 23, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Math Lesson Plan

Primary Unit Plan 2

Animated Chalkboard Learning Unit

Business Learning Unit

Corporate Signature Learning Unit

Code Training Unit

History Unit plan

Transcript

DE LA ÉTICA TEÓRICA A LA ÉTICA OPERATIVA

“No basta con saber qué puede hacer la inteligencia artificial; debemos decidir cómo queremos usarla dentro de nuestra profesión.”

Empezar

ÍNDICE

TRANSPARENCIA Y CONFIANZA

RESPONSABILIDAD PROFESIONAL

CONCLUSIONES

IMPACTO SOCIAL

Responsabilidad profesional

Responsabilidad profesional

La responsabilidad profesional implica que las decisiones asistidas por IA no eximen al profesional de su deber de diligencia, prudencia y revisión.

El artículo 36 del Código Deontológico del CAF indica que: “el profesional responde de los actos ejecutados bajo su supervisión directa, incluso cuando utilice medios automatizados ”

En el contexto de la IA, esto significa que el uso de herramientas digitales no traslada la culpa, sino que amplía la obligación de control.

¿y en la práctica?

EJERCICIO

Ejercicio

¿De quién es la responsabilidad?

En la administración de fincas, las herramientas de inteligencia artificial pueden ayudarnos a redactar, organizar o decidir. Pero cuando algo sale mal, ¿quién responde? En esta dinámica vas a enfrentarte a varios casos reales en los que una IA interviene en tu trabajo. Tu reto será decidir quién asume la responsabilidad en cada situación y justificar por qué.
💡Instrucciones:
  1. Lee atentamente cada caso.
  2. Elige la opción que consideres más ética y profesional.
  3. Recibirás feedback inmediato tras cada decisión.
  4. Intenta completar los cuatro casos con el máximo de aciertos.

Comenzar reto

Ejercicio

El acta exprés

Ejercicio

El correo automático

Ejercicio

El informe parcial

Ejercicio

La recomendación automática

Transparencia y confianza

Transparencia y confianza

La transparencia es la base de la confianza.

Ser transparente implica informar de manera clara cuándo, cómo y por qué se usa la IA, especialmente si sus resultados afectan a terceros (vecinos, proveedores, empleados, etc.).

Según la Recomendación de Ética de la IA (UNESCO, 2021): “Las personas tienen derecho a saber si interactúan con un sistema automatizado.”

aplicación profesional

ejercicio

Transparencia y confianza

Las caras de la transparencia

En tu trabajo como administradora o adiminstrador de fincas, la transparencia no siempre es blanco o negro. Estas tarjetas te plantearán dilemas reales sobre cómo comunicar o actuar cuando usas IA. Lee cada situación, reflexiona antes de girar la tarjeta y compara tu razonamiento con el análisis ético propuesto.

Comenzar reto

Ejercicio

El acta generada

Éticamente, ocultarlo no es grave si el contenido es veraz y revisado, pero falta transparencia sobre el proceso.Comunicar que se usó IA fortalece la confianza y la trazabilidad profesional.

Has usado IA para redactar un borrador de acta. El texto es correcto y tú lo has revisado, pero no comunicas a la comunidad que la IA te ayudó.

Título

Usa esta cara para dar más información sobre un tema.

¿Deberías mencionarlo? ¿Qué implicaciones éticas tiene ocultarlo?

Subtítulo

💭 Reflexión: ¿Tu cliente perdería o ganaría confianza si lo supiera?

Siguiente

Ejercicio

El correo automatizado

No hay obligación legal de aclararlo, pero sí ética comunicativa.Informar no resta valor; al contrario, demuestra profesionalidad y honestidad.

Has configurado respuestas automáticas con IA para consultas generales. Un vecino te felicita por la rapidez.

Título

Usa esta cara para dar más información sobre un tema.

¿Deberías aclarar que las respuestas son automáticas o mantener la ilusión de inmediatez personal?

Subtítulo

💭 Reflexión: ¿Qué valoras más: la eficiencia o la autenticidad en la comunicación?

Siguiente

Ejercicio

El correo automatizado

La transparencia exige reconocer el origen del análisis.Si lo presentas como propio, atribuyes competencia a algo que no controlas totalmente.

La IA genera un análisis económico con proyecciones de gastos. El presidente te pide detalles sobre cómo obtuviste los cálculos.

Título

Usa esta cara para dar más información sobre un tema.

¿Revelas el uso de IA o lo presentas como “tu análisis asistido”?

Subtítulo

💭 Reflexión: ¿Qué perderías si reconoces que fue un trabajo asistido digitalmente?

Siguiente

Ejercicio

El filtro de incidencias

La responsabilidad sigue siendo tuya: la IA no puede disculparse ni asumir consecuencias.Explicar el error del sistema no es excusa, pero sí parte de la transparencia reparadora: mostrar cómo mejorarás el proceso.

Usas IA para filtrar incidencias “prioritarias”. Un vecino te acusa de haber ignorado la suya, y tú sabes que el algoritmo no la clasificó bien.

Título

Usa esta cara para dar más información sobre un tema.

¿Debes asumir el error o explicar que fue culpa del sistema?

Subtítulo

💭 Reflexión: ¿Qué es más ético: proteger tu imagen o reconocer una falla del sistema?

Siguiente

Ejercicio

El proveedor digital

Sí. La transparencia implica revelar los vínculos que pueden condicionar decisiones.No hacerlo vulnera la confianza y puede tener implicaciones legales.

La IA te recomienda una empresa externa basada en valoraciones. Más tarde descubres que la IA pertenecía a una compañía del mismo grupo empresarial.

Título

Usa esta cara para dar más información sobre un tema.

¿Debes informar a los clientes sobre ese posible conflicto de intereses?

Subtítulo

💭 Reflexión: ¿Qué harías si estuvieras en el lugar de la comunidad?

FINALIZAR

Impacto social

Impacto social

La ética profesional de la IA no se limita al despacho o la comunidad: tiene consecuencias sociales. Las decisiones automatizadas afectan a la convivencia, la igualdad y la percepción de justicia en la vida comunitaria.

La UNESCO y la Comisión Europea destacan que la IA debe contribuir al bien común, no solo a la eficiencia. En el ámbito inmobiliario y vecinal, esto significa que la tecnología debe mejorar la convivencia y el acceso justo a la información, no generar brechas.

Ejemplos

Impacto social

Criterios éticos para un impacto social positivo

Sostenibilidad: promover decisiones que ahorren tiempo y recursos sin generar desigualdades.

03

02

01

Inclusión: la IA debe adaptarse a todas las personas (edad, idioma, accesibilidad).

Participación: usar la IA para mejorar la comunicación, no sustituirla.

conclusiones

Código ético

Conclusión clave

La ética aplicada a la IA no se enseña, se demuestra. Cada acción profesional puede fortalecer o debilitar la confianza social en la tecnología. El Administrador de Fincas del futuro será tanto gestor de comunidades como curador de inteligencia artificial. Tu reputación digital será tan importante como tu criterio técnico.

Reflexiones

💬 ¿Debería existir un código ético de IA dentro de los colegios profesionales? 💬¿Sería positivo que los despachos mostraran públicamente su compromiso ético digital? 💬 ¿Cómo cambiaría tu relación con los propietarios si supieran que parte de la documentación se genera con IA?

FIN

Código ético del despacho
  • Revisar siempre el trabajo generado por IA.
  • No usar IA para decisiones que afecten a votaciones o acuerdos legales.
  • Mantener la confidencialidad de toda la información procesada.
  • Informar al cliente cuando la IA participe en la comunicación.
  • Formar al equipo de forma continua en el uso ético de herramientas digitales.
Ejemplos aplicados
  • Una IA que prioriza reclamaciones según frecuencia puede invisibilizar a minorías o colectivos menos activos.
  • Un algoritmo de traducción deficiente puede dejar fuera de la comunicación a personas extranjeras o mayores.
  • Automatizar todo el trato con los propietarios puede reducir la empatía y la confianza en la gestión.
  1. Informar al cliente o comunidad cuando un informe o comunicación ha sido asistido por IA.
  2. Registrar trazabilidad: qué herramienta se usó, en qué versión y con qué nivel de revisión humana.
  3. Explicar las decisiones: la IA puede ayudar a justificar una elección (por datos o criterios objetivos), pero debe poder ser comprendida por el receptor.

Riesgos

Ejemplo 1: Una IA redacta un acta con un error jurídico. Aunque la herramienta lo generó, la responsabilidad recae en el profesional que la firmó. Ejemplo 2: El sistema prioriza incidencias y omite una urgente. La responsabilidad no es de la máquina, sino de quien la configuró o no supervisó sus criterios.

Principios de actuación