Modelos avanzados
Autora: EIG Campus
Modelos avanzados - Introducción
Introducción
En esta clase exploraremos modelos avanzados de aprendizaje automático, desde redes neuronales profundas hasta técnicas de reducción de dimensiones y agrupación no supervisada. El objetivo es comprender sus fundamentos teóricos y aprender a implementarlos en Python para resolver problemas reales de predicción, clasificación y análisis exploratorio de datos.
Modelos avanzados - Palabras Claves
Redes neuronales. Regresión. Clasificación. Reducción de dimensiones. Clustering.
Palabras Claves
Modelos avanzados - Reto
Reto
Cómo elegir y aplicar un modelo avanzado, como redes neuronales o técnicas de clustering, para predecir resultados complejos o descubrir patrones ocultos en un conjunto de datos sin etiquetas?
Modelos avanzados - Redes neuronales profundas: concepto y arquitectura
Una red neuronal típica se compone de:
Desarrollo
Capa de entrada
1. Redes neuronales profundas: concepto y arquitectura
Las redes neuronales profundas (DNN, por sus siglas en inglés) constituyen una de las herramientas más potentes del aprendizaje automático contemporáneo. Su nombre proviene de su capacidad de apilar múltiples capas de neuronas artificiales, lo que permite aprender representaciones jerárquicas de los datos.
Capas ocultas
Capa de salida
Modelos avanzados - Redes neuronales profundas: concepto y arquitectura
Figura 1.
Red neuronal con una capa oculta de 5 neuronas.
Cada neurona calcula una suma ponderada de las entradas, aplica una función de activación y transmite el resultado a la siguiente capa. Al apilar muchas capas, la red puede aproximar funciones altamente complejas (teorema de aproximación universal).
Una presentación
Modelos avanzados - Redes neuronales profundas: concepto y arquitectura
Ejemplo en Python:
Las redes profundas se entrenan mediante backpropagation, un algoritmo que calcula el gradiente del error con respecto a los pesos de la red y los ajusta con un optimizador como stochastic gradient descent (SGD) o Adam minimizando una función de pérdida que mide la discrepancia entre las predicciones y los valores reales.
Modelos avanzados - Redes neuronales aplicadas a regresión
Función de pérdida
2. Redes neuronales aplicadas a regresión
Métrica de evaluación
En un problema de regresión, la salida es continua. Para este tipo de problemas, la capa de salida de la red suele tener una sola neurona con activación lineal, lo que permite predecir cualquier valor real.
Ejemplo de aplicación
Modelos avanzados - Redes neuronales aplicadas a clasificación
3. Redes neuronales aplicadas a clasificación
Función de pérdida
En clasificación, la salida corresponde a una clase discreta. Para problemas binarios (sí/no), la salida es una neurona con activación sigmoide; para clasificación multiclase, se utilizan tantas neuronas como categorías y la activación softmax.
Métrica de evaluación
Modelos avanzados - Reducción de dimensiones: PCA y t-SNE
4. Reducción de dimensiones: PCA y t-SNE
Los datos de alta dimensionalidad suelen dificultar el entrenamiento de modelos. Por ello se utilizan técnicas de reducción de dimensiones, que buscan representar los datos en un espacio más pequeño preservando la mayor cantidad posible de información.
PCA
t-SNE
Modelos avanzados - Introducción al aprendizaje no supervisado
5. Introducción al aprendizaje no supervisado
A diferencia del aprendizaje supervisado, donde se dispone de etiquetas (valores o categorías correctas), en el aprendizaje no supervisado el objetivo es descubrir patrones ocultos en los datos sin conocimiento previo de las clases. Dos enfoques centrales son la reducción de dimensionalidad y la agrupación (clustering). Estos métodos son fundamentales en la exploración inicial de datos, la segmentación de mercados, la bioinformática y la compresión de datos.
Modelos avanzados - Agrupación no supervisada: K-means
6. Agrupación no supervisada: K-means
El algoritmo K-means es el más utilizado para clustering. Busca dividir los datos en K grupos, de manera que cada observación pertenezca al cluster con el centroide más cercano. Pasos:
Ejemplo en Python:
Modelos avanzados - Agrupación jerárquica
7. Agrupación jerárquica
A diferencia de K-means, la agrupación jerárquica construye una jerarquía de clusters representada en un dendrograma. Existen dos variantes principales:
Aglomerativa
Divisiva
Modelos avanzados - Conclusiones
Conclusiones
Las redes neuronales profundas son pilares del aprendizaje automático moderno por su capacidad para modelar relaciones complejas en datos. Su aplicación abarca regresión, clasificación y análisis no supervisado. Al combinar múltiples capas y técnicas como PCA o K-means, permiten descubrir patrones, reducir dimensionalidad y mejorar la toma de decisiones basada en datos.
Modelos avanzados - ANEXOS
ANEXOS
Abadi, M., et al. (2016). TensorFlow: A system for large-scale machine learning. En Proceedings of the 12th USENIX Symposium on Operating Systems Design and Implementation (pp. 265–283). USENIX Association. https://arxiv.org/abs/1605.08695
Álvarez, J. M. (2018, 10 de junio). El perceptrón como neurona artificial. Blog de José Mariano Álvarez. https://blog.josemarianoalvarez.com/2018/06/10/el-perceptron-como-neurona-artificial/
Chollet, F. (2015). Keras [Software]. https://keras.io
Chollet, F. (2017). Deep learning with Python. Manning Publications. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.
Jain, A. K., Murty, M. N., & Flynn, P. J. (1999). Data clustering: A review. ACM Computing Surveys, 31(3), 264–323. https://doi.org/10.1145/331499.331504
Modelos avanzados - ANEXOS
ANEXOS
Jolliffe, I. T. (2002). Principal component analysis (2ª ed.). Springer. https://doi.org/10.1007/b98835
Pedregosa, F., et al. (2011). Scikit-learn: Machine learning in Python. Journal of Machine Learning Research, 12, 2825–2830. http://jmlr.org/papers/v12/pedregosa11a.html
van der Maaten, L., & Hinton, G. (2008). Visualizing data using t-SNE. Journal of Machine Learning Research, 9, 2579–2605. http://jmlr.org/papers/v9/vandermaaten08a.html
Xu, R., & Wunsch, D. (2005). Survey of clustering algorithms. IEEE Transactions on Neural Networks, 16(3), 645–678. https://doi.org/10.1109/TNN.2005.845141
Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2020). Dive into Deep Learning. https://d2l.ai/chapter_multilayer-perceptrons/mlp.html
Tema revisado
Capa de entrada, que recibe las variables independientes.
Divisiva: Parte de un único cluster y lo divide sucesivamente.
Aglomerativa: Comienza con cada punto como un cluster individual y los fusiona progresivamente.
Capas ocultas, donde se realizan combinaciones lineales y transformaciones no lineales mediante funciones de activación (ReLU, tanh, sigmoid).
Figura 2.
Esquema de una neurona (perceptrón).
Nota. El diagrama muestra el funcionamiento de un perceptrón simple, donde las entradas ponderadas (xi) se combinan linealmente mediante los pesos (wi) y un sesgo (b), para luego pasar por una función de activación que genera la salida binaria. Álvarez, J. M. (2018). El perceptrón como neurona artificial. https://blog.josemarianoalvarez.com/2018/06/10/el-perceptron-como-neurona-artificial/
PCA (Principal Component Analysis): es un método lineal que transforma los datos en nuevas variables (componentes principales) que capturan la mayor varianza posible. Es útil para simplificar y visualizar datos.
Capa de salida, que produce el resultado final (un valor numérico en regresión, una probabilidad en clasificación).
Ejemplo en Python:
Con este modelo, el resultado es un vector de probabilidades que indica la pertenencia de un ejemplo a cada clase.
Ejemplo en Python:
Métrica de evaluación: MSE, RMSE o R².
Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod.
Función de pérdida: el error cuadrático medio (MSE).
Métrica de evaluación: exactitud (accuracy), F1-score, precisión y recall.
Función de pérdida: entropía cruzada binaria o categórica.
Ejemplo en Python:
Ejemplo en Python:
El entrenamiento con model.fit(X_train, y_train, epochs=50, batch_size=32) ajustará los parámetros para minimizar el error.Un epoch es una pasada completa de todo el conjunto de entrenamiento por la red, mientras que el batch_size es la cantidad de muestras que se procesan juntas antes de actualizar los parámetros del modelo.
Nota. La figura muestra un perceptrón multicapa (MLP) con capa de entrada, capa oculta y capa de salida. Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2020). Dive into Deep Learning. https://d2l.ai/chapter_multilayer-perceptrons/mlp.html
t-SNE (t-distributed Stochastic Neighbor Embedding): Es un método no lineal diseñado para visualizar relaciones locales en 2D o 3D. Es muy usado para explorar datos de alta dimensión en campos como biología computacional o procesamiento de texto.
Ejemplo de aplicación: predecir el precio de una vivienda a partir de variables como superficie, ubicación y número de habitaciones.
T-IAA_25_001190_01
Prisma Education
Created on October 29, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Piñata Challenge
View
Teaching Challenge: Transform Your Classroom
View
Frayer Model
View
Math Calculations
View
Interactive QR Code Generator
View
Interactive Scoreboard
View
Interactive Bingo
Explore all templates
Transcript
Modelos avanzados
Autora: EIG Campus
Modelos avanzados - Introducción
Introducción
En esta clase exploraremos modelos avanzados de aprendizaje automático, desde redes neuronales profundas hasta técnicas de reducción de dimensiones y agrupación no supervisada. El objetivo es comprender sus fundamentos teóricos y aprender a implementarlos en Python para resolver problemas reales de predicción, clasificación y análisis exploratorio de datos.
Modelos avanzados - Palabras Claves
Redes neuronales. Regresión. Clasificación. Reducción de dimensiones. Clustering.
Palabras Claves
Modelos avanzados - Reto
Reto
Cómo elegir y aplicar un modelo avanzado, como redes neuronales o técnicas de clustering, para predecir resultados complejos o descubrir patrones ocultos en un conjunto de datos sin etiquetas?
Modelos avanzados - Redes neuronales profundas: concepto y arquitectura
Una red neuronal típica se compone de:
Desarrollo
Capa de entrada
1. Redes neuronales profundas: concepto y arquitectura
Las redes neuronales profundas (DNN, por sus siglas en inglés) constituyen una de las herramientas más potentes del aprendizaje automático contemporáneo. Su nombre proviene de su capacidad de apilar múltiples capas de neuronas artificiales, lo que permite aprender representaciones jerárquicas de los datos.
Capas ocultas
Capa de salida
Modelos avanzados - Redes neuronales profundas: concepto y arquitectura
Figura 1. Red neuronal con una capa oculta de 5 neuronas.
Cada neurona calcula una suma ponderada de las entradas, aplica una función de activación y transmite el resultado a la siguiente capa. Al apilar muchas capas, la red puede aproximar funciones altamente complejas (teorema de aproximación universal).
Una presentación
Modelos avanzados - Redes neuronales profundas: concepto y arquitectura
Ejemplo en Python:
Las redes profundas se entrenan mediante backpropagation, un algoritmo que calcula el gradiente del error con respecto a los pesos de la red y los ajusta con un optimizador como stochastic gradient descent (SGD) o Adam minimizando una función de pérdida que mide la discrepancia entre las predicciones y los valores reales.
Modelos avanzados - Redes neuronales aplicadas a regresión
Función de pérdida
2. Redes neuronales aplicadas a regresión
Métrica de evaluación
En un problema de regresión, la salida es continua. Para este tipo de problemas, la capa de salida de la red suele tener una sola neurona con activación lineal, lo que permite predecir cualquier valor real.
Ejemplo de aplicación
Modelos avanzados - Redes neuronales aplicadas a clasificación
3. Redes neuronales aplicadas a clasificación
Función de pérdida
En clasificación, la salida corresponde a una clase discreta. Para problemas binarios (sí/no), la salida es una neurona con activación sigmoide; para clasificación multiclase, se utilizan tantas neuronas como categorías y la activación softmax.
Métrica de evaluación
Modelos avanzados - Reducción de dimensiones: PCA y t-SNE
4. Reducción de dimensiones: PCA y t-SNE
Los datos de alta dimensionalidad suelen dificultar el entrenamiento de modelos. Por ello se utilizan técnicas de reducción de dimensiones, que buscan representar los datos en un espacio más pequeño preservando la mayor cantidad posible de información.
PCA
t-SNE
Modelos avanzados - Introducción al aprendizaje no supervisado
5. Introducción al aprendizaje no supervisado
A diferencia del aprendizaje supervisado, donde se dispone de etiquetas (valores o categorías correctas), en el aprendizaje no supervisado el objetivo es descubrir patrones ocultos en los datos sin conocimiento previo de las clases. Dos enfoques centrales son la reducción de dimensionalidad y la agrupación (clustering). Estos métodos son fundamentales en la exploración inicial de datos, la segmentación de mercados, la bioinformática y la compresión de datos.
Modelos avanzados - Agrupación no supervisada: K-means
6. Agrupación no supervisada: K-means
El algoritmo K-means es el más utilizado para clustering. Busca dividir los datos en K grupos, de manera que cada observación pertenezca al cluster con el centroide más cercano. Pasos:
Ejemplo en Python:
Modelos avanzados - Agrupación jerárquica
7. Agrupación jerárquica
A diferencia de K-means, la agrupación jerárquica construye una jerarquía de clusters representada en un dendrograma. Existen dos variantes principales:
Aglomerativa
Divisiva
Modelos avanzados - Conclusiones
Conclusiones
Las redes neuronales profundas son pilares del aprendizaje automático moderno por su capacidad para modelar relaciones complejas en datos. Su aplicación abarca regresión, clasificación y análisis no supervisado. Al combinar múltiples capas y técnicas como PCA o K-means, permiten descubrir patrones, reducir dimensionalidad y mejorar la toma de decisiones basada en datos.
Modelos avanzados - ANEXOS
ANEXOS
Abadi, M., et al. (2016). TensorFlow: A system for large-scale machine learning. En Proceedings of the 12th USENIX Symposium on Operating Systems Design and Implementation (pp. 265–283). USENIX Association. https://arxiv.org/abs/1605.08695 Álvarez, J. M. (2018, 10 de junio). El perceptrón como neurona artificial. Blog de José Mariano Álvarez. https://blog.josemarianoalvarez.com/2018/06/10/el-perceptron-como-neurona-artificial/ Chollet, F. (2015). Keras [Software]. https://keras.io Chollet, F. (2017). Deep learning with Python. Manning Publications. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press. Jain, A. K., Murty, M. N., & Flynn, P. J. (1999). Data clustering: A review. ACM Computing Surveys, 31(3), 264–323. https://doi.org/10.1145/331499.331504
Modelos avanzados - ANEXOS
ANEXOS
Jolliffe, I. T. (2002). Principal component analysis (2ª ed.). Springer. https://doi.org/10.1007/b98835 Pedregosa, F., et al. (2011). Scikit-learn: Machine learning in Python. Journal of Machine Learning Research, 12, 2825–2830. http://jmlr.org/papers/v12/pedregosa11a.html van der Maaten, L., & Hinton, G. (2008). Visualizing data using t-SNE. Journal of Machine Learning Research, 9, 2579–2605. http://jmlr.org/papers/v9/vandermaaten08a.html Xu, R., & Wunsch, D. (2005). Survey of clustering algorithms. IEEE Transactions on Neural Networks, 16(3), 645–678. https://doi.org/10.1109/TNN.2005.845141 Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2020). Dive into Deep Learning. https://d2l.ai/chapter_multilayer-perceptrons/mlp.html
Tema revisado
Capa de entrada, que recibe las variables independientes.
Divisiva: Parte de un único cluster y lo divide sucesivamente.
Aglomerativa: Comienza con cada punto como un cluster individual y los fusiona progresivamente.
Capas ocultas, donde se realizan combinaciones lineales y transformaciones no lineales mediante funciones de activación (ReLU, tanh, sigmoid).
Figura 2. Esquema de una neurona (perceptrón).
Nota. El diagrama muestra el funcionamiento de un perceptrón simple, donde las entradas ponderadas (xi) se combinan linealmente mediante los pesos (wi) y un sesgo (b), para luego pasar por una función de activación que genera la salida binaria. Álvarez, J. M. (2018). El perceptrón como neurona artificial. https://blog.josemarianoalvarez.com/2018/06/10/el-perceptron-como-neurona-artificial/
PCA (Principal Component Analysis): es un método lineal que transforma los datos en nuevas variables (componentes principales) que capturan la mayor varianza posible. Es útil para simplificar y visualizar datos.
Capa de salida, que produce el resultado final (un valor numérico en regresión, una probabilidad en clasificación).
Ejemplo en Python:
Con este modelo, el resultado es un vector de probabilidades que indica la pertenencia de un ejemplo a cada clase.
Ejemplo en Python:
Métrica de evaluación: MSE, RMSE o R².
Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod.
Función de pérdida: el error cuadrático medio (MSE).
Métrica de evaluación: exactitud (accuracy), F1-score, precisión y recall.
Función de pérdida: entropía cruzada binaria o categórica.
Ejemplo en Python:
Ejemplo en Python:
El entrenamiento con model.fit(X_train, y_train, epochs=50, batch_size=32) ajustará los parámetros para minimizar el error.Un epoch es una pasada completa de todo el conjunto de entrenamiento por la red, mientras que el batch_size es la cantidad de muestras que se procesan juntas antes de actualizar los parámetros del modelo.
Nota. La figura muestra un perceptrón multicapa (MLP) con capa de entrada, capa oculta y capa de salida. Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2020). Dive into Deep Learning. https://d2l.ai/chapter_multilayer-perceptrons/mlp.html
t-SNE (t-distributed Stochastic Neighbor Embedding): Es un método no lineal diseñado para visualizar relaciones locales en 2D o 3D. Es muy usado para explorar datos de alta dimensión en campos como biología computacional o procesamiento de texto.
Ejemplo de aplicación: predecir el precio de una vivienda a partir de variables como superficie, ubicación y número de habitaciones.