Want to create interactive content? It’s easy in Genially!

Get started free

La analítica empresarial

Jose Manuel Gomez

Created on February 26, 2025

a analítica empresarial ha evolucionado significativamente en las últimas décadas, permitiendo a las organizaciones mejorar su toma de decisiones y optimizar sus operaciones. Con el auge del Big Data y la inteligencia artificial, las empresas pueden ahora procesar y analizar volúmenes masivos de dat

Start designing with a free template

Discover more than 1500 professional designs like these:

Tech Presentation Mobile

Geniaflix Presentation

Vintage Mosaic Presentation

Shadow Presentation

Newspaper Presentation

Zen Presentation

Audio tutorial

Transcript

El futuro de la

analítica empresarial

Dr. José Manuel Gómez

empezar

Índice

El futuro de la analítica empresarial

Bigdato

Las V que definen el Big Data

los factores de éxito más críticos para el análisis de Big Data

Tecnologia de Bigdata

La analítica empresarial ha evolucionado significativamente en las últimas décadas, permitiendo a las organizaciones mejorar su toma de decisiones y optimizar sus operaciones. Con el auge del Big Data y la inteligencia artificial, las empresas pueden ahora procesar y analizar volúmenes masivos de datos en tiempo real, brindando ventajas competitivas sin precedentes. En este documento, exploraremos la evolución de la analítica empresarial, las herramientas y técnicas clave para el análisis de Big Data, y su impacto en la toma de decisiones empresariales.

Escribe un título aquí

El futuro de la analítica empresarialí

La adopción de la analítica empresarial está aumentando, no solo por parte de empresas de diferentes industrias y sectores, sino también de distintos tamaños, y está pasando de las empresas grandes y altamente capaces a las medianas y pequeñas. Muchas han evolucionado con éxito y rapidez de lo descriptivo a lo predictivo, y de lo predictivo a lo prescriptivo. El Dr. Tom Davenport, un conocido gurú de la analítica empresarial, clasificó recientemente la analítica empresarial en cuatro eras de sofisticación (Davenport, 2018).

Las cuatro eras de la sofisticación del análisis de negocios.

El continuo que comenzó con Analytics 1.0 (básicamente, la era de la inteligencia empresarial y el almacenamiento de datos que resumía y contextualizaba los datos estructurados recopilados dentro de la organización y generaba con éxito información para los responsables de la toma de decisiones) duró casi dos décadas. La evolución de la analítica continuó con AnalyticsLa era 2.0, marcada por el modelado predictivo, los datos, el texto, la minería web y la inclusión de datos no estructurados y menos estructurados, generó previsión para una mejor toma de decisiones. Poco después de Analytics 2.0, con la aparición de Big Data, nos embarcamos en Analytics 3.0. La última era de la analítica, que acaba de comenzar o está a punto de comenzar, es Analytics 4.0, también conocida como el surgimiento de la inteligencia artificial (IA) y la computación cognitiva. El presente y el futuro de la analítica, tal como la conocemos, está definido por esta era: la era de la toma de decisiones integrada y automatizada, la automatización de procesos robóticos, el aprendizaje profundo y la computación cognitiva. En este módulo 7, brindamos estos temas con la profundidad y amplitud suficientes para pintar un panorama de la vanguardia de la analítica.

+ info

Análisis de macrodatos

El uso de datos para comprender mejor a los clientes y las operaciones comerciales con el fin de sustentar el crecimiento y la rentabilidad es una tarea cada vez más desafiante para las empresas de hoy. A medida que se dispone de más y más datos dentro y fuera de la organización en diversas formas, el procesamiento efectivo y oportuno de los datos con los medios tradicionales se vuelve impráctico. Este fenómeno se denomina Big Data y está recibiendo una importante cobertura de prensa e interés tanto de los usuarios comerciales como de los académicos. El resultado es que Big Data se está convirtiendo en una palabra de moda de marketing sobrevalorada y sobreutilizada.

Big Data significa diferentes cosas para cada persona. Tradicionalmente, el término se ha utilizado para describir los volúmenes masivos de datos analizados por grandes organizaciones como Google o proyectos de investigación científica de la NASA. Pero para la mayoría de las empresas, es un término relativo: "grande" depende del tamaño de una organización y de la madurez de sus datos. La cuestión es más bien encontrar nuevo valor dentro y fuera de las fuentes de datos convencionales. Ampliar los límites del análisis de datos descubre nuevos conocimientos y oportunidades, y "grande" depende de dónde se empieza y cómo se procede. Consideremos, por ejemplo, la descripción popular de Big Data:

Big Data excedeEl alcance de los entornos de hardware de uso común y las capacidades de las herramientas de software para capturar, gestionar y procesar dicho hardware en un lapso de tiempo tolerable para su población de usuarios. Big Data se ha convertido en un término popular para describir el crecimiento exponencial, la disponibilidad y el uso de la información, tanto estructurada como no estructurada. Se ha escrito mucho sobre la tendencia de Big Data y cómo puede servir como base para la innovación, la diferenciación y el crecimiento.

Vídeo

¿De dónde proviene el Big Data?

Hoy en día, la respuesta es sencilla: “Los macrodatos proceden de todas partes”. Los macrodatos pueden proceder de registros web, RFID, sistemas GPS, redes de sensores, redes sociales, documentos de texto basados ​​en Internet, índices de búsqueda en Internet, registros detallados de llamadas, astronomía, ciencia atmosférica, biología, genómica, física nuclear, experimentos bioquímicos, registros médicos, investigación científica, vigilancia militar, archivos fotográficos, archivos de vídeo y prácticas de comercio electrónico a gran escala

Escribe un título aquí

Origen

Análisis de Big Data para Comprender Mejor a los Clientes y Operaciones Comerciales

El Big Data permite a las empresas obtener información valiosa sobre el comportamiento del cliente, mejorar la eficiencia operativa y personalizar servicios. Su aplicación en marketing, finanzas y logística ha revolucionado la forma en que se toman decisiones estratégicas.

Las V que definen el Big Data

El Big Data suele definirse con tres V: volumen, variedad y velocidad. Además de estas tres, vemos que algunos de los principales proveedores de soluciones de Big Data añaden otras V, como veracidad (IBM), variabilidad (SAS) y propuesta de valor.

Volumen: Manejo de grandes cantidades de datos generados a diario.Velocidad: Procesamiento de datos en tiempo real para decisiones oportunas. Variedad: Integración de datos estructurados y no estructurados.

El impacto de estas "V" se refleja en la capacidad de las empresas para reaccionar rápidamente a los cambios del mercado, predecir tendencias y optimizar recursos.

Volumen

El volumen es, obviamente, la característica más común del Big Data. Muchos factores contribuyeron al aumento exponencial del volumen de datos, como los datos basados ​​en transacciones almacenados a lo largo de los años, los datos de texto que llegan constantemente desde las redes sociales, las cantidades cada vez mayores de datos de sensores que se recopilan y los datos RFID y GPS generados automáticamente. En el pasado, el volumen excesivo de datos creaba problemas de almacenamiento. Pero con las tecnologías avanzadas de hoy, combinadas con la disminución de los costos de almacenamiento, estos problemas ya no son significativos; en cambio, surgen otros problemas, incluido cómo determinar la relevancia en medio de los grandes volúmenes de datos y cómo crear valor a partir de los datos que se consideran relevantes.

“grande” es un término relativo. Cambia con el tiempo y las distintas organizaciones lo perciben de manera diferente. Con el asombroso aumento del volumen de datos, incluso la denominación del siguiente nivel de Big Data ha sido un desafío. La mayor masa de datos que solía llamarse petabytes (PB) ha cedido su lugar a los zettabytes (ZB), que son un billón de gigabytes (GB) o mil millones de terabytes (TB). A medida que aumenta el volumen de datos, la comunidad tiene dificultades para seguir el ritmo de la denominación universalmente aceptada del siguiente nivel

Se ofrece una descripción general del tamaño y la denominación de los volúmenes de datos actuales.

Nombres para volúmenes crecientes de datos

Variedad

En la actualidad, los datos se presentan en todo tipo de formatos: desde bases de datos tradicionales hasta almacenes de datos jerárquicos creados por los usuarios finales y sistemas OLAP, pasando por documentos de texto, correo electrónico, XML, datos recopilados por medidores y sensores, hasta vídeo, audio y datos de cotizaciones bursátiles. Según algunas estimaciones, entre el 80 y el 85 por ciento de los datos de todas las organizaciones se encuentran en algún tipo de formato no estructurado o semiestructurado (un formato que no es adecuado para los esquemas de bases de datos tradicionales). Pero no se puede negar su valor, por lo que se los debe incluir en los análisis para respaldar la toma de decisiones.

Velocidad

Según Gartner, la velocidad se refiere tanto a la velocidad con la que se producen los datos como a la velocidad con la que se deben procesar (capturar, almacenar y analizar) para satisfacer la necesidad o demanda. Las etiquetas RFID, los sensores automatizados, los dispositivos GPS y los medidores inteligentes están impulsando una creciente necesidad de lidiar con torrentes de datos casi en tiempo real. La velocidad es quizás la característica más olvidada del Big Data. Reaccionar con la suficiente rapidez para lidiar con la velocidad es un desafío para la mayoría de las organizaciones. Para los entornos sensibles al tiempo, el reloj del costo de oportunidad de laLos datos empiezan a funcionar en el momento en que se crean. A medida que pasa el tiempo, la propuesta de valor de los datos se degrada y, finalmente, pierde su valor. Ya sea que se trate de la salud de un paciente, el bienestar de un sistema de tráfico o la salud de una cartera de inversiones, acceder a los datos y reaccionar más rápido a las circunstancias siempre generará resultados más ventajosos.

Velocidad

En la tormenta de Big Data que estamos presenciando hoy, casi todo el mundo está obsesionado con el análisis en reposo mediante sistemas de software y hardware optimizados para extraer grandes cantidades de fuentes de datos variantes. Si bien esto es de vital importancia y muy valioso, existe otra clase de análisis impulsado por la naturaleza de velocidad del Big Data, llamado análisis de flujo de datos o análisis en movimiento , que en su mayoría se pasa por alto. Si se realiza correctamente, el análisis de flujo de datos puede ser tan valioso, y en algunos entornos comerciales más valioso, que el análisis en reposo.

Veracidad

Variabilidad

La veracidad es un término que IBM utiliza como cuarta “V” para describir el Big Data. Se refiere a la conformidad con los hechos: la precisión, calidad, veracidad o confiabilidad de los datos. A menudo se utilizan herramientas y técnicas para gestionar la veracidad del Big Data al transformar los datos en información de calidad y confiable.

Además de la creciente velocidad y variedad de los datos, los flujos de datos pueden ser muy inconsistentes con picos periódicos. ¿Hay alguna tendencia importante en las redes sociales? Quizás se avecina una oferta pública inicial de alto perfil. Tal vez nadar con cerdos en las Bahamas se convierta de repente en la actividad obligada de las vacaciones. Las cargas de datos pico diarias, estacionales y desencadenadas por eventos pueden ser difíciles de gestionar, especialmente si se trata de redes sociales.

Propuesta de valor

El entusiasmo que despierta el Big Data es su propuesta de valor. Una idea preconcebida es que contiene o tiene un mayor potencial de contener más patrones y anomalías interesantes que los datos pequeños. Por lo tanto, al analizar datos grandes y ricos en características, las organizaciones pueden obtener un mayor valor comercial que de otro modo no podrían obtener. Si bien los usuarios pueden detectar los patrones en conjuntos de datos pequeños mediante métodos estadísticos y de aprendizaje automático simples o herramientas de consulta y generación de informes ad hoc, Big Data significa análisis "grandes". Big Analytics significa mayor conocimiento y mejores decisiones, algo que toda organización necesita. Dado que la definición exacta de Big Data todavía es un tema de debate en los círculos académicos e industriales, es probable que se añadan más características (quizás más V) a esta lista. Independientemente de lo que suceda, la importancia y la propuesta de valor de Big Data han llegado para quedars

Los siguientes son algunos de los factores de éxito más críticos para el análisis de Big Data:

Una necesidad empresarial clara (alineación con la visión y la estrategia). Las inversiones empresariales deben realizarse en beneficio de la empresa, no por el simple hecho de conseguir avances tecnológicos. Por lo tanto, el principal impulsor del análisis de Big Data debe ser las necesidades de la empresa en cualquier nivel: estratégico, táctico y operativo.

Patrocinio fuerte y comprometido (líder ejecutivo). Es un hecho bien conocido que si no se cuenta con un patrocinio fuerte y comprometido de los ejecutivos, es difícil tener éxito. Si el alcance es una o varias aplicaciones analíticas, el patrocinio puede ser a nivel departamental. Sin embargo, si el objetivo es la transformación organizacional de toda la empresa, que suele ser el caso de las iniciativas de Big Data, el patrocinio debe ser a los niveles más altos y a nivel de toda la organización.

Alineación entre la estrategia empresarial y la de TI. Es esencial asegurarse de que el trabajo analítico siempre respalde la estrategia empresarial, no al revés. El análisis debe desempeñar un papel facilitador en la ejecución exitosa de la estrategia empresarial.

Una cultura de toma de decisiones basada en hechos. En una cultura de toma de decisiones basada en hechos, los números, en lugar de la intuición, la intuición o las suposiciones, son los que guían la toma de decisiones. También existe una cultura de experimentación para ver qué funciona y qué no.

Una infraestructura de datos sólida. Los almacenes de datos han proporcionado la infraestructura de datos para el análisis. Esta infraestructura está cambiando y mejorándose en la era del Big Data con las nuevas tecnologías. El éxito requiere combinar lo antiguo con lo nuevo para lograr una infraestructura integral que funcione de manera sinérgica.

Tecnologías de Big Data

Existen numerosas tecnologías que procesan y analizan Big Data. La mayoría de estas tecnologías están diseñadas para aprovechar el hardware básico y permitir técnicas de procesamiento paralelo y escalable; emplean capacidades de almacenamiento de datos no relacionales para procesar datos no estructurados y semiestructurados; y aplican tecnología avanzada de análisis y visualización de datos a Big Data para transmitir información a los usuarios finales. Hay tres tecnologías de Big Data que la mayoría cree que transformarán los mercados de análisis de negocios y gestión de datos: MapReduce, Hadoop y NoSQL.

Hadoop

Mapa Reduce

Hadoop es un marco de código abierto para procesar, almacenar y analizar cantidades masivas de datos distribuidos y no estructurados. Creado originalmente por Doug Cutting en Yahoo, Hadoop se inspiró en MapReduce, una función definida por el usuario desarrollada por Google a principios de la década de 2000 para indexar la Web. Fue diseñado para manejar petabytes y exabytes de datos distribuidos en múltiples nodos en paralelo. Los clústeres de Hadoop se ejecutan en hardware comercial de bajo costo, por lo que los proyectos pueden escalar sin gastar mucho dinero. Hadoop es ahora un proyecto de la Apache Software Foundation, donde cientos de colaboradores mejoran continuamente la tecnología centra

Modelo de programación para el procesamiento de grandes volúmenes de datos en paralelo. MapReduce es una técnica popularizada por Google que distribuye el procesamiento de archivos de datos multiestructurados de gran tamaño en un clúster de máquinas. Se logra un alto rendimiento dividiendo el procesamiento en pequeñas unidades de trabajo que se pueden ejecutar en paralelo en los cientos (potencialmente miles) de nodos del clúster.

No SQL

Ha surgido un nuevo estilo de base de datos relacionado, denominado NoSQL (Not Only SQL), que, al igual que Hadoop, procesa grandes volúmenes de datos multiestructurados. Sin embargo, mientras que Hadoop es apto para realizar análisis históricos a gran escala y por lotes, las bases de datos NoSQL están destinadas, en su mayor parte, a ofrecer datos discretos almacenados entre grandes volúmenes de datos multiestructurados a aplicaciones de Big Data automatizadas y de usuario final. Esta capacidad es muy deficiente en la tecnología de bases de datos relacionales, que simplemente no puede mantener los niveles de rendimiento necesarios de las aplicaciones a escala de Big Data.

Impacto de la Inteligencia Artificial en el Aprendizaje Profundo y la Computación Cognitiva

La inteligencia artificial ha potenciado el análisis de datos a través de algoritmos de aprendizaje profundo, permitiendo a las empresas: Identificar patrones ocultos en datos masivos.

  • Mejorar la automatización de procesos.
  • Desarrollar modelos predictivos más precisos.
  • Crear asistentes virtuales y sistemas de recomendación.

Caso Práctico: Análisis de Ventas de una Tienda de Ropa Objetivo: Analizar las ventas mensuales de una tienda de ropa para identificar tendencias y oportunidades de mejora.

📌 Paso 1: Abrir el Archivo en Excel Descarga el archivo 📂 Analisis_Ventas_Sencillo.xlsx. Ábrelo en Microsoft Excel. Verás una tabla con las siguientes columnas: Mes Cantidad de Ventas Precio Promedio Total de Ingresos

📌 Paso 2: Crear una Tabla Dinámica Selecciona toda la tabla (incluyendo los encabezados). Ve a la pestaña "Insertar" y selecciona "Tabla Dinámica". En la ventana emergente, elige "Nueva hoja de cálculo" y haz clic en "Aceptar". En el panel de campos de la tabla dinámica, arrastra: "Mes" a Filas. "Total de Ingresos" a Valores. Ahora verás el total de ingresos por mes en la tabla dinámica.

Caso Práctico: Análisis de Ventas de una Tienda de Ropa Objetivo: Analizar las ventas mensuales de una tienda de ropa para identificar tendencias y oportunidades de mejora.

📌 Paso 3: Aplicar el Pronóstico de Ventas Objetivo: Estimar las ventas futuras basándonos en los datos históricos. 1️⃣ Agregar un Nuevo Mes para el Pronóstico En la columna "Mes", añade un nuevo mes después de diciembre (por ejemplo, "Enero del siguiente año"). Deja vacía la columna "Cantidad de Ventas" y "Total de Ingresos", ya que vamos a predecir su valor.

2️⃣ Usar la Función PRONOSTICO.ETS() En la celda donde deseas predecir la cantidad de ventas para el siguiente mes, usa la siguiente fórmula: excel Copiar Editar

=PRONOSTICO.ETS(B14, C2:C13, A2:A13)

📌 Explicación de la fórmula: B14: La celda donde se encuentra la nueva fecha (Enero del siguiente año). C2:C13: Rango de datos de las ventas pasadas. A2:A13: Rango de los meses correspondientes.

3️⃣ Aplicar la Fórmula para el Total de Ingresos Calcula el precio promedio de los últimos meses con la función PROMEDIO():

=PROMEDIO(D2:D13)

=C14*D14

Usa la fórmula para calcular el total de ingresos estimado:

Donde: C14 es la cantidad de ventas pronosticada. D14 es el precio promedio estimado.

Caso Práctico: Análisis de Ventas de una Tienda de Ropa Objetivo: Analizar las ventas mensuales de una tienda de ropa para identificar tendencias y oportunidades de mejora.

4️⃣ Crear un Gráfico con la Tendencia y el Pronóstico Selecciona los datos de los meses con sus valores de ventas (incluyendo la predicción). Inserta un Gráfico de Líneas (Insertar > Gráfico de Líneas). Personaliza el gráfico para visualizar la tendencia histórica y la predicción.