Ciencia de Datos y Big Data
Privacidad y ética en el manejo de datos masivos
START
León Ramírez Estefany yolandaSanchez Muñiz arely yazmin camberos hernandez emiliano
Evolución del volumen mundial de datos digitales
El volumen de datos digitales crece de forma exponencial cada año, impulsado por redes sociales, dispositivos móviles y servicios en la nube. Este aumento plantea nuevos retos sobre la privacidad y el uso ético de la información. (Scoop Market, 2025; DemandSage, 2024)
+ INFO
Problemática
Transformación y contexto
El avance de la Ciencia de Datos y las tecnologías de Big Data ha transformado la forma en que se recopila, analiza y utiliza la información.Actualmente, empresas, gobiernos y organizaciones manejan volúmenes masivos de datos provenientes de múltiples fuentes como redes sociales, dispositivos móviles, servicios digitales y sistemas de vigilancia. Si bien este aprovechamiento de datos ha impulsado la innovación y la toma de decisiones basadas en evidencia, también ha generado preocupaciones crecientes sobre la privacidad y la ética en el manejo de la información personal.
Problemas y consecuencias éticas
20%
Falta de transparencia
35%
Recolección sin consentimiento
20%
Sesgos algorítmicos
25%
Uso indebido de datos personales
+ INFO
Importancia y necesidad de acción
Por ello, resulta fundamental analizar cómo se gestionan los datos dentro del ámbito de la Ciencia de Datos y qué medidas se pueden implementar para garantizar la privacidad, la seguridad y la ética en su tratamiento.El objetivo es equilibrar la innovación tecnológica con el respeto a los derechos de las personas, promoviendo un uso responsable, transparente y justo de la información.
Objetivo personal
Objetivo general:Comprender las consecuencias reales que tienen ciertas prácticas de manejo inadecuado de datos personales como recolectarlos sin permiso, usarlos para manipular a las personas, vender información sensible o dejar que algoritmos discriminatorios tomen decisiones. Para ello, se revisarán casos conocidos y fuentes especializadas que permitan identificar cómo estas acciones afectan directamente a individuos y comunidades.
Descripcion del objetivo
Cuando los datos de las personas se usan sin cuidado, las consecuencias son muy concretas: puede haber decisiones injustas tomadas por algoritmos, pérdida de privacidad por sistemas que vigilan demasiado, manipulación política o comercial a través de publicidad dirigida, e incluso venta de información personal sin que la gente se entere. Casos como Cambridge Analytica o la negación injusta de créditos muestran cómo estos problemas ya están ocurriendo y por qué es importante analizarlos.
- Este subtema permite profundizar en los efectos sociales y éticos del Big Data, complementando el objetivo general al ofrecer una visión crítica sobre las repercusiones reales de la falta de privacidad y transparencia en la gestión de datos.
Justificación
Objetivos específicos
Clasificar tipos de uso no ético de datos según fuentes especializadas y casos mediáticos
Data
Data
Categorías: Recolección engañosa (dark patterns en apps).
Venta sin consentimiento (brokers de datos).
Discriminación algorítmica (sesgos en IA).
Vigilancia masiva (gobiernos/empresas).
Casos emblemáticos: Cambridge Analytica (manipulación política).
Uber (seguimiento de usuarios).
Algoritmos de contratación sesgados (Amazon, 2018).
Objetivos específicos
Sintetizar efectos documentados en individuos y comunidades
Data
En comunidades:
Polarización social (ej: algoritmos de redes sociales).
Desconfianza institucional (ej: filtraciones masivas).
Brechas digitales (ej: acceso sesgado a servicios).
Data
En individuos:
Pérdida de privacidad (ej: doxxing).
Daño reputacional (ej: deepfakes).
Exclusión (ej: scoring crediticio sesgado).
Objetivos específicos
Identificar medidas de protección documentadas contra el abuso de datos
Data
Legales:
GDPR (UE), CCPA (California), Ley de Protección de Datos Personales (México).
Data
Técnicas:
Cifrado de datos (ej: Signal, WhatsApp).
Anonimización (ej: differential privacy).
Diseño ético de algoritmos (ej: fairness constraints).
Data
Prácticas:
Transparencia en políticas de privacidad.
Consentimiento explícito (ej: GDPR).
Referencias
- Kumar, N. (2025, 24 junio). Big Data Statistics 2025 (Growth & Market Data). DemandSage. https://www.demandsage.com/big-data-statistics/
- Data Catalog Statistics and Facts (2025). Scoop Market. https://scoop.market.us/data-catalog-statistics/
- Big data statistics: How much data is there in the world?“ (2025, 28 mayo). Rivery. https://rivery.io/blog/big-data-statistics-how-much-data-is-there-in-the-world/
En muchos casos, los datos se recopilan sin el consentimiento pleno de los usuarios o se utilizan con fines distintos a los declarados originalmente. Además, los algoritmos que procesan estos datos pueden reproducir sesgos, discriminar o afectar la equidad en decisiones automatizadas, como la aprobación de créditos, contrataciones o acceso a servicios. Esta situación evidencia una falta de lineamientos éticos claros y de políticas transparentes sobre el uso responsable de la información.
Según proyecciones globales, el volumen total de datos en el mundo pasará de 15.5 zettabytes en 2015 a más de 181 zettabytes en 2025 (Scoop Market, 2025; DemandSage, 2024). Este crecimiento acelerado se debe al desarrollo del Internet de las Cosas (IoT), la expansión del almacenamiento en la nube y el uso constante de plataformas digitales. Sin embargo, este fenómeno también genera desafíos éticos: la recopilación masiva de información personal, la falta de transparencia en su uso y los riesgos de seguridad digital. Por ello, se vuelve urgente implementar políticas responsables que equilibren la innovación tecnológica con la protección de la privacidad.
Ciencia de Datos y Big Data
Emiliano Camberos
Created on November 8, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Corporate Christmas Presentation
View
Snow Presentation
View
Nature Presentation
View
Halloween Presentation
View
Tarot Presentation
View
Winter Presentation
View
Vaporwave presentation
Explore all templates
Transcript
Ciencia de Datos y Big Data
Privacidad y ética en el manejo de datos masivos
START
León Ramírez Estefany yolandaSanchez Muñiz arely yazmin camberos hernandez emiliano
Evolución del volumen mundial de datos digitales
El volumen de datos digitales crece de forma exponencial cada año, impulsado por redes sociales, dispositivos móviles y servicios en la nube. Este aumento plantea nuevos retos sobre la privacidad y el uso ético de la información. (Scoop Market, 2025; DemandSage, 2024)
+ INFO
Problemática
Transformación y contexto
El avance de la Ciencia de Datos y las tecnologías de Big Data ha transformado la forma en que se recopila, analiza y utiliza la información.Actualmente, empresas, gobiernos y organizaciones manejan volúmenes masivos de datos provenientes de múltiples fuentes como redes sociales, dispositivos móviles, servicios digitales y sistemas de vigilancia. Si bien este aprovechamiento de datos ha impulsado la innovación y la toma de decisiones basadas en evidencia, también ha generado preocupaciones crecientes sobre la privacidad y la ética en el manejo de la información personal.
Problemas y consecuencias éticas
20%
Falta de transparencia
35%
Recolección sin consentimiento
20%
Sesgos algorítmicos
25%
Uso indebido de datos personales
+ INFO
Importancia y necesidad de acción
Por ello, resulta fundamental analizar cómo se gestionan los datos dentro del ámbito de la Ciencia de Datos y qué medidas se pueden implementar para garantizar la privacidad, la seguridad y la ética en su tratamiento.El objetivo es equilibrar la innovación tecnológica con el respeto a los derechos de las personas, promoviendo un uso responsable, transparente y justo de la información.
Objetivo personal
Objetivo general:Comprender las consecuencias reales que tienen ciertas prácticas de manejo inadecuado de datos personales como recolectarlos sin permiso, usarlos para manipular a las personas, vender información sensible o dejar que algoritmos discriminatorios tomen decisiones. Para ello, se revisarán casos conocidos y fuentes especializadas que permitan identificar cómo estas acciones afectan directamente a individuos y comunidades.
Descripcion del objetivo
Cuando los datos de las personas se usan sin cuidado, las consecuencias son muy concretas: puede haber decisiones injustas tomadas por algoritmos, pérdida de privacidad por sistemas que vigilan demasiado, manipulación política o comercial a través de publicidad dirigida, e incluso venta de información personal sin que la gente se entere. Casos como Cambridge Analytica o la negación injusta de créditos muestran cómo estos problemas ya están ocurriendo y por qué es importante analizarlos.
Justificación
Objetivos específicos
Clasificar tipos de uso no ético de datos según fuentes especializadas y casos mediáticos
Data
Data
Categorías: Recolección engañosa (dark patterns en apps). Venta sin consentimiento (brokers de datos). Discriminación algorítmica (sesgos en IA). Vigilancia masiva (gobiernos/empresas).
Casos emblemáticos: Cambridge Analytica (manipulación política). Uber (seguimiento de usuarios). Algoritmos de contratación sesgados (Amazon, 2018).
Objetivos específicos
Sintetizar efectos documentados en individuos y comunidades
Data
En comunidades: Polarización social (ej: algoritmos de redes sociales). Desconfianza institucional (ej: filtraciones masivas). Brechas digitales (ej: acceso sesgado a servicios).
Data
En individuos: Pérdida de privacidad (ej: doxxing). Daño reputacional (ej: deepfakes). Exclusión (ej: scoring crediticio sesgado).
Objetivos específicos
Identificar medidas de protección documentadas contra el abuso de datos
Data
Legales: GDPR (UE), CCPA (California), Ley de Protección de Datos Personales (México).
Data
Técnicas: Cifrado de datos (ej: Signal, WhatsApp). Anonimización (ej: differential privacy). Diseño ético de algoritmos (ej: fairness constraints).
Data
Prácticas: Transparencia en políticas de privacidad. Consentimiento explícito (ej: GDPR).
Referencias
En muchos casos, los datos se recopilan sin el consentimiento pleno de los usuarios o se utilizan con fines distintos a los declarados originalmente. Además, los algoritmos que procesan estos datos pueden reproducir sesgos, discriminar o afectar la equidad en decisiones automatizadas, como la aprobación de créditos, contrataciones o acceso a servicios. Esta situación evidencia una falta de lineamientos éticos claros y de políticas transparentes sobre el uso responsable de la información.
Según proyecciones globales, el volumen total de datos en el mundo pasará de 15.5 zettabytes en 2015 a más de 181 zettabytes en 2025 (Scoop Market, 2025; DemandSage, 2024). Este crecimiento acelerado se debe al desarrollo del Internet de las Cosas (IoT), la expansión del almacenamiento en la nube y el uso constante de plataformas digitales. Sin embargo, este fenómeno también genera desafíos éticos: la recopilación masiva de información personal, la falta de transparencia en su uso y los riesgos de seguridad digital. Por ello, se vuelve urgente implementar políticas responsables que equilibren la innovación tecnológica con la protección de la privacidad.