Modelos y arquitecturas para Big Data
CHRISTIAN RODRIGO BENITEZ DOMINGUEZ
Created on September 8, 2024
More creations to inspire you
Transcript
x
empezar_
Unidad: 1. Fundamentos del Big Data. Institución: UDG Virtual. Asignatura: Uso de Big Data para la toma de decisiones. Asesor: Nancy Ruíz Monroy. Nombre: Christian Rodrigo Benítez Domínguez. Folio: 220336595
Modelos y arquitecturas para Big Data
+
+
Introducción
+
Arquitecturas para Big Data
+
Modelos de Big Data
+
Frameworks de Big Data
Seguridad y Cumplimiento
Big Data refiere a conjuntos de datos extremadamente grandes, complejos y diversos que superan la capacidad de los sistemas de gestión de datos tradicionales para almacenar, procesar y analizarlos de manera efectiva. Estos datos provienen de múltiples fuentes, como dispositivos móviles, redes sociales, sensores o transacciones financieras.Importancia de un enfoque estructurado para la implementación:Un enfoque estructurado en la implementación de Big Data es crucial para garantizar que los datos se gestionen de manera eficiente.La selección adecuada de modelos de almacenamiento, procesamiento e implementación de frameworks facilitan el manejo de grandes volúmenes de datos y las arquitecturas soportan la escalabilidad, flexibilidad y la integración.
Que es Big Data
+
info
Modelo de Almacenamiento.Data Lakes:Almacenan datos en su formato bruto y nativo, tanto estructurados como no estructurados.Data Warehouses:Almacenan datos estructurados y procesados, organizados en esquemas y tablas.Modelo de Procesamiento.Batch Processing:Procesa grandes volúmenes de datos en intervalos regulares.Stream Processing:Descripción: Procesa datos en tiempo real a medida que llegan.
+
info
Modelos de Big Data
Hadoop o arquitectura HDFS (Hadoop Distributed File System):Sistema de archivos distribuido que permite almacenar y gestionar grandes volúmenes de datos en clústeres de servidores.MapReduce: modelo de procesamiento distribuido que divide las tareas en dos etapas: Map (mapeo) y Reduce (reducción).Apache Spark:Procesamiento en Memoria: Procesa datos directamente en la memoria RAM, lo que acelera significativamente las tareas en comparación con Hadoop.Procesamiento en Tiempo Real: Capaz de manejar tanto datos batch como streaming, lo que lo hace versátil para múltiples aplicaciones de Big Data.Apache Flink: framework para procesamiento de flujos de datos en tiempo real y análisis en estado. Alta capacidad para procesamiento en tiempo real, baja latencia, manejo eficiente de eventos y estados.Apache Storm:Sistema de procesamiento distribuido para flujos de datos en tiempo real. Escalabilidad, procesamiento en tiempo real, adecuado para aplicaciones sensibles al tiempo como análisis de redes sociales o detección de fraudes.
+
info
Frameworks de Big Data
Arquitectura Lambda:Combina el procesamiento batch y streaming en una sola arquitectura. Los datos se procesan en tiempo real para aplicaciones inmediatas y luego se almacenan para procesamiento batch y análisis más profundos.Arquitectura Kappa:Simplifica el enfoque de procesamiento al enfocarse exclusivamente en el procesamiento en tiempo real, eliminando la capa batch de la arquitectura Lambda.Arquitectura de Microservicios:Divide una aplicación en pequeños servicios independientes que se comunican entre sí, facilitando la escalabilidad y la flexibilidad.
+
info
Arquitecturas para Big Data
Medidas de seguridad para datos sensibles:Cifrado de Datos: Protege la información tanto en tránsito como en reposo, garantizando que solo usuarios autorizados puedan acceder a los datos.Control de Acceso: Implementación de autenticación fuerte y gestión de permisos para limitar el acceso a datos sensibles a personal autorizado.Monitoreo y Auditoría: Vigilancia continua de actividades y registros de acceso para detectar y responder a posibles amenazas de seguridad.Cumplimiento Normativo:GDPR (Reglamento General de Protección de Datos):la legislación europea que protege la privacidad de los datos personales de los ciudadanos de la UE.HIPAA (Ley de Portabilidad y Responsabilidad de Seguros de Salud):Ley estadounidense que protege la información médica sensible.
+
info
Seguridad y Cumplimiento
La mportancia de elegir adecuadamente modelos y frameworks. por su escalabilidad, paralelización, tolerancia a fallos, eficiencia, abstracción de complejidad y ventaja competitiva.Futuro del Big Data y su evoluciónAvances en procesamiento distribuido, cumplimiento normativo y ética, integración de inteligencia artificial.Las organizaciones deberán ser flexibles y adaptarse a un entorno en constante cambio.
+
info
Conclusiones
Los frameworks de Big Data proporcionan la infraestructura necesaria para aprovechar el valor de los datos a gran escala. Al seleccionar el framework adecuado, las organizaciones pueden optimizar todas sus operaciones de datos, reducir tiempos de procesamiento y mejorar la capacidad de respuesta ante eventos en tiempo real.
x
x
La seguridad en Big Data es fundamental para proteger la información crítica de las persona y organizaciones. A medida que el campo evoluciona, la integración con tecnologías emergentes, se debe tener un enfoque en la privacidad y la transparencia que serán esenciales para enfrentar los desafíos futuros.
x
Big Data es un recurso estratégico que puede impulsar la innovación y el éxito empresarial. Las organizaciones que dominan Big Data están mejor posicionadas para tomar decisiones y responder rápidamente a cambios en el mercado para mantenerse competitivas.
Los modelos de Big Data deben seleccionarse y diseñarse cuidadosamente para alinearse con los objetivos y requisitos específicos de la organización.
x
x
Una arquitectura bien diseñada permite a las organizaciones procesar y analizar datos en tiempo real y en batch, garantizando que se tomen decisiones informadas y basadas en datos.
x
La correcta elección de modelos y frameworks en Big Data no solo optimiza el procesamiento y análisis de datos, sino que también posiciona a las organizaciones para enfrentar los desafíos y aprovechar las oportunidades que presenta el futuro del Big Data.