Want to create interactive content? It’s easy in Genially!

Get started free

Ética y responsabilidad en el uso de la IA

ICATECH Chihuahua

Created on October 31, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Neodigital CPD Course

Minimal Course

Basic Interactive Course

Laws and Regulations Course

Transcript

Ética y responsabilidad en el uso de la IA

Empezar

Sesgos algorítmicos

Los sistemas de IA utilizan algoritmos que pueden aprender de los datos, pero cuando esos datos contienen sesgos, los resultados también pueden ser injustos o discriminatorios.

⚖️📊🤝🏢

Ver impacto

Impacto del sesgo algorítmico

Los algoritmos sesgados pueden generar decisiones injustas, reforzar la discriminación y reducir la confianza en la inteligencia artificial y las instituciones que la aplican.

Cuando el sesgo entra en la IA, las consecuencias afectan a todos.

⚖️

Decisiones injustas

⚠️

Riesgos legales y reputacionales

🙅🏽‍♀️

Discriminación

⛓️‍💥

Pérdida de confianza

Da clic en cada ícono para ver más información

¿De dónde proviene el sesgo?

El sesgo algorítmico no es causado por el algoritmo en sí, sino por la forma en que el equipo de ciencia de datos recopila y codifica los datos de entrenamiento.

Sesgo en la evaluación

Datos proxy sesgados

Datos de entrenamiento sesgados

Ciclo del sesgo

Datos de entrenamiento sesgados

Algoritmo

Resultados con sesgo

Retroalimentación al sistema

¿Cómo romper el ciclo?

Privacidad y seguridad de datos

La privacidad define quién debe acceder a los datos; la seguridad garantiza que solo ellos puedan hacerlo.

Ver diferencias

Da clic en el recuadro para ver más información

Principios de privacidad de datos

La privacidad no es una opción adicional: es un derecho del usuario y una obligación ética.

🔍

Transparencia
Consentimiento

🔑

Acceso

📊

Calidad

🔒

Privacidad por diseño

🚫

Limitación de uso

🛡️

Seguridad

Coloca el cursor sobre cada ícono para ver más información

Amenazas a la seguridad de los datos

🚫

🧑‍💼

Acceso no autorizado
Amenazas internas

🎣

Phishing

💣

Ransomware

🦠

Malware

Coloca el cursor sobre cada ícono para ver más información

Medidas de seguridad de datos

La eliminación segura garantiza que los datos se sobrescriban por completo y sean irrecuperables. Ejemplo: Una empresa elimina los registros antiguos de clientes al terminar el contrato, asegurando que no se puedan restaurar.

Convierte los datos en texto ilegible para protegerlos en tránsito y en reposo.Ejemplo: Un banco cifra las transacciones para que nadie pueda leer los datos si son interceptados.

🔐Cifrado de datos

🗑️Eliminación segura

Título

Título

Usa esta cara para dar más información sobre un tema.

Usa esta cara para dar más información sobre un tema.

Subtítulo

Subtítulo

Garantiza la rápida recuperación de los datos tras incidentes o ataques. Ejemplo: Tras un ciberataque, una organización restaura su base de datos desde copias de seguridad seguras.

Sustituye información sensible con datos ficticios, pero estructuralmente similares. Ejemplo: En un entorno de prueba, los números reales de tarjetas se reemplazan por datos simulados.

🔁 Resiliencia de datos

🎭 Enmascaramiento

Título

Título

Usa esta cara para dar más información sobre un tema.

Usa esta cara para dar más información sobre un tema.

Subtítulo

Subtítulo

Da clic en cada recuadro para ver más información.

Marco legal y regulatorio básico

La inteligencia artificial transforma sectores como la salud, la educación y el comercio. Sin embargo, su avance plantea retos legales y éticos que México aún está definiendo.

Explora el marco legal

Marco legal

Actualmente, México no tiene una ley específica sobre inteligencia artificial, pero sí cuenta con marcos legales que influyen en su desarrollo y uso.

Leyes que ya impactan la IA

Iniciativas legislativas en curso

¡Sigue aprendiendo!

Explora los siguientes temas.

Ir a inicio

⚖️ Leyes que ya impactan la IA

Leyes penales y responsabilidad civil

Protección de datos personales

Derechos de autor y propiedad intelectual

Protección al consumidor

La jurisprudencia mexicana ha establecido que las obras generadas únicamente por IA no pueden ser registradas como derechos de autor, ya que carecen de la intervención creativa de una persona.

Leyes penales y de responsabilidad civil, cuando la IA cause daños o se use con fines ilícitos.

Ley de Protección al Consumidor, en caso de que IA se use en productos o servicios.

Las leyes de protección de datos en México regulan el uso de información en sistemas de IA y exigen consentimiento, objetivos claros y medidas de seguridad.

Haz clic en el símbolo para mostrar u ocultar la información.

Mitigación del sesgo

La gobernanza ética ayuda a prevenir y corregir el sesgo en los sistemas de IA.

Detección y mitigación continua

Datos diversos y representativos

Transparencia e interpretabilidad

Diseño inclusivo

Usar datos amplios y equilibrados evita que la IA refleje solo una parte de la realidad.

Monitorear y probar los algoritmos constantemente para identificar sesgos antes de que afecten las decisiones.son historias.

Documentar y explicar cómo funciona el algoritmo y quién lo entrenó, para que los resultados sean comprensibles.

Incorporar diversidad en los equipos de diseño y desarrollo para identificar sesgos que podrían pasar desapercibidos.

Comparación entre privacidad y seguridad de datos

La privacidad y la seguridad de los datos constituyen ámbitos diferentes, aunque estrechamente vinculados. Juntas conforman pilares esenciales dentro de la estrategia integral de gobernanza de datos de una organización.

Aspecto

Privacidad de datos

Seguridad de datos

Protege los derechos de las personas sobre su información personal.

Protege los datos frente al acceso, uso o alteración no autorizados.

Enfoque principal

Garantizar que los datos se recopilen, usen y compartan ética y legalmente.

Evitar que los datos sean robados, dañados o filtrados.

Objetivo

Acceso, transparencia, consentimiento, calidad, limitación de uso, seguridad.

Cifrado, eliminación segura, enmascaramiento, resiliencia, monitoreo continuo.

Principios clave

Ejemplo

Una app que informa y solicita consentimiento antes de usar los datos del usuario.

Un sistema que cifra la información para impedir que un atacante la lea.

Datos de proxy sesgados
Si el sistema usa una variable sustituta que está relacionada con una característica sensible, es sesgo en los datos proxy.

El uso de indicadores indirectos incorrectos puede generar que el algoritmo aprenda patrones sesgados sobre atributos sensibles.

Ejemplo: Usar el código postal como indicador de ingresos → puede discriminar zonas históricamente marginadas.

⛓️‍💥Pérdida de confianza

Cuando los resultados de la IA parecen injustos o inexplicables, la confianza en la tecnología y en las instituciones que la usan se debilita.

Ver ejemplo

El uso de sistemas de reconocimiento facial con errores de identificación en aeropuertos y cuerpos policiales ha provocado críticas públicas y demandas por violación de derechos civiles.

⚖️Decisiones injustas

Los algoritmos sesgados pueden generar resultados erróneos o parciales en áreas sensibles como la salud, la seguridad o el empleo.

Ver ejemplo

En 2019, se descubrió que un sistema de IA utilizado en hospitales de EE. UU. subestimaba la gravedad de pacientes afroamericanos, porque los datos de entrenamiento se basaban en historiales médicos con sesgos raciales.

⚠️Riesgos legales y reputacionales

El uso de algoritmos discriminatorios puede acarrear sanciones, demandas o pérdida de credibilidad institucional.

Ver ejemplo

Varias entidades financieras en Europa fueron investigadas por la Unión Europea tras descubrirse que sus modelos de crédito otorgaban peores condiciones a solicitantes de ciertas nacionalidades.

🏛️Iniciativas legislativas

Aunque aún no existe una ley nacional de IA, en los últimos años se han presentado iniciativas en el Congreso que buscan regular esta tecnología. Algunas de las más relevantes son:

Ley para la Regulación Ética de la Inteligencia Artificial y la Robótica

Propuesta de Ley General de Inteligencia Artificial

Propuesta por legisladores federales. Busca establecer principios de uso ético de la IA en el ámbito gubernamental, comercial y social.

Plantea clasificar los sistemas de IA por niveles de riesgo. Los de mayor riesgo tendrían obligaciones más estrictas en materia de transparencia, auditoría y responsabilidad.

🙅🏽‍♀️Discriminación y desigualdad

Los sistemas de IA pueden amplificar los sesgos sociales presentes en los datos de entrenamiento, reproduciendo desigualdades de género, raza o nivel socioeconómico.

Ver ejemplo

Un algoritmo de reclutamiento de Amazon fue descartado al detectar que penalizaba los currículums que incluían la palabra “mujer” o provenían de universidades femeninas, debido a datos históricos dominados por hombres.

Sesgo en la evaluación

Si el error proviene de cómo las personas interpretan los resultados, es sesgo en la evaluación.

Incluso con datos neutrales, los resultados pueden interpretarse de manera sesgada según prejuicios o expectativas de quienes usan el algoritmo.

Ejemplo: Un modelo neutral de predicción de desempeño escolar evaluado por profesores con estereotipos → decisiones injustas.

Datos de entrenamiento sesgados
Si el problema está en los datos usados para entrenar, se trata de sesgo en los datos de entrenamiento.

Si los datos de entrenamiento no son representativos, el algoritmo puede generar resultados sesgados y discriminatorios.

Ejemplo: Algoritmo de selección de personal entrenado solo con datos de hombres → recomendaciones sesgadas.