Want to create interactive content? It’s easy in Genially!

Get started free

T-IAA_25_001190_01

Prisma Education

Created on October 29, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Piñata Challenge

Teaching Challenge: Transform Your Classroom

Frayer Model

Math Calculations

Interactive QR Code Generator

Interactive Scoreboard

Interactive Bingo

Transcript

Modelos avanzados

Autora: EIG Campus

Modelos avanzados - Introducción

Introducción

En esta clase exploraremos modelos avanzados de aprendizaje automático, desde redes neuronales profundas hasta técnicas de reducción de dimensiones y agrupación no supervisada. El objetivo es comprender sus fundamentos teóricos y aprender a implementarlos en Python para resolver problemas reales de predicción, clasificación y análisis exploratorio de datos.

Modelos avanzados - Palabras Claves

Redes neuronales. Regresión. Clasificación. Reducción de dimensiones. Clustering.

Palabras Claves

Modelos avanzados - Reto

Reto

Cómo elegir y aplicar un modelo avanzado, como redes neuronales o técnicas de clustering, para predecir resultados complejos o descubrir patrones ocultos en un conjunto de datos sin etiquetas?

Modelos avanzados - Redes neuronales profundas: concepto y arquitectura

Una red neuronal típica se compone de:

Desarrollo

Capa de entrada

1. Redes neuronales profundas: concepto y arquitectura

Las redes neuronales profundas (DNN, por sus siglas en inglés) constituyen una de las herramientas más potentes del aprendizaje automático contemporáneo. Su nombre proviene de su capacidad de apilar múltiples capas de neuronas artificiales, lo que permite aprender representaciones jerárquicas de los datos.

Capas ocultas

Capa de salida

Modelos avanzados - Redes neuronales profundas: concepto y arquitectura

Figura 1. Red neuronal con una capa oculta de 5 neuronas.

Cada neurona calcula una suma ponderada de las entradas, aplica una función de activación y transmite el resultado a la siguiente capa. Al apilar muchas capas, la red puede aproximar funciones altamente complejas (teorema de aproximación universal).

Una presentación

Modelos avanzados - Redes neuronales profundas: concepto y arquitectura

Ejemplo en Python:

Las redes profundas se entrenan mediante backpropagation, un algoritmo que calcula el gradiente del error con respecto a los pesos de la red y los ajusta con un optimizador como stochastic gradient descent (SGD) o Adam minimizando una función de pérdida que mide la discrepancia entre las predicciones y los valores reales.

Modelos avanzados - Redes neuronales aplicadas a regresión

Función de pérdida

2. Redes neuronales aplicadas a regresión

Métrica de evaluación

En un problema de regresión, la salida es continua. Para este tipo de problemas, la capa de salida de la red suele tener una sola neurona con activación lineal, lo que permite predecir cualquier valor real.

Ejemplo de aplicación

Modelos avanzados - Redes neuronales aplicadas a clasificación

3. Redes neuronales aplicadas a clasificación

Función de pérdida

En clasificación, la salida corresponde a una clase discreta. Para problemas binarios (sí/no), la salida es una neurona con activación sigmoide; para clasificación multiclase, se utilizan tantas neuronas como categorías y la activación softmax.

Métrica de evaluación

Modelos avanzados - Reducción de dimensiones: PCA y t-SNE

4. Reducción de dimensiones: PCA y t-SNE

Los datos de alta dimensionalidad suelen dificultar el entrenamiento de modelos. Por ello se utilizan técnicas de reducción de dimensiones, que buscan representar los datos en un espacio más pequeño preservando la mayor cantidad posible de información.

PCA

t-SNE

Modelos avanzados - Introducción al aprendizaje no supervisado

5. Introducción al aprendizaje no supervisado

A diferencia del aprendizaje supervisado, donde se dispone de etiquetas (valores o categorías correctas), en el aprendizaje no supervisado el objetivo es descubrir patrones ocultos en los datos sin conocimiento previo de las clases. Dos enfoques centrales son la reducción de dimensionalidad y la agrupación (clustering). Estos métodos son fundamentales en la exploración inicial de datos, la segmentación de mercados, la bioinformática y la compresión de datos.

Modelos avanzados - Agrupación no supervisada: K-means

6. Agrupación no supervisada: K-means

El algoritmo K-means es el más utilizado para clustering. Busca dividir los datos en K grupos, de manera que cada observación pertenezca al cluster con el centroide más cercano. Pasos:

Ejemplo en Python:

Modelos avanzados - Agrupación jerárquica

7. Agrupación jerárquica

A diferencia de K-means, la agrupación jerárquica construye una jerarquía de clusters representada en un dendrograma. Existen dos variantes principales:

Aglomerativa

Divisiva

Modelos avanzados - Conclusiones

Conclusiones

Las redes neuronales profundas son pilares del aprendizaje automático moderno por su capacidad para modelar relaciones complejas en datos. Su aplicación abarca regresión, clasificación y análisis no supervisado. Al combinar múltiples capas y técnicas como PCA o K-means, permiten descubrir patrones, reducir dimensionalidad y mejorar la toma de decisiones basada en datos.

Modelos avanzados - ANEXOS

ANEXOS

Abadi, M., et al. (2016). TensorFlow: A system for large-scale machine learning. En Proceedings of the 12th USENIX Symposium on Operating Systems Design and Implementation (pp. 265–283). USENIX Association. https://arxiv.org/abs/1605.08695 Álvarez, J. M. (2018, 10 de junio). El perceptrón como neurona artificial. Blog de José Mariano Álvarez. https://blog.josemarianoalvarez.com/2018/06/10/el-perceptron-como-neurona-artificial/ Chollet, F. (2015). Keras [Software]. https://keras.io Chollet, F. (2017). Deep learning with Python. Manning Publications. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press. Jain, A. K., Murty, M. N., & Flynn, P. J. (1999). Data clustering: A review. ACM Computing Surveys, 31(3), 264–323. https://doi.org/10.1145/331499.331504

Modelos avanzados - ANEXOS

ANEXOS

Jolliffe, I. T. (2002). Principal component analysis (2ª ed.). Springer. https://doi.org/10.1007/b98835 Pedregosa, F., et al. (2011). Scikit-learn: Machine learning in Python. Journal of Machine Learning Research, 12, 2825–2830. http://jmlr.org/papers/v12/pedregosa11a.html van der Maaten, L., & Hinton, G. (2008). Visualizing data using t-SNE. Journal of Machine Learning Research, 9, 2579–2605. http://jmlr.org/papers/v9/vandermaaten08a.html Xu, R., & Wunsch, D. (2005). Survey of clustering algorithms. IEEE Transactions on Neural Networks, 16(3), 645–678. https://doi.org/10.1109/TNN.2005.845141 Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2020). Dive into Deep Learning. https://d2l.ai/chapter_multilayer-perceptrons/mlp.html

Tema revisado

Capa de entrada, que recibe las variables independientes.

Divisiva: Parte de un único cluster y lo divide sucesivamente.

Aglomerativa: Comienza con cada punto como un cluster individual y los fusiona progresivamente.

Capas ocultas, donde se realizan combinaciones lineales y transformaciones no lineales mediante funciones de activación (ReLU, tanh, sigmoid).

Figura 2. Esquema de una neurona (perceptrón).

Nota. El diagrama muestra el funcionamiento de un perceptrón simple, donde las entradas ponderadas (xi) se combinan linealmente mediante los pesos (wi) y un sesgo (b), para luego pasar por una función de activación que genera la salida binaria. Álvarez, J. M. (2018). El perceptrón como neurona artificial. https://blog.josemarianoalvarez.com/2018/06/10/el-perceptron-como-neurona-artificial/

PCA (Principal Component Analysis): es un método lineal que transforma los datos en nuevas variables (componentes principales) que capturan la mayor varianza posible. Es útil para simplificar y visualizar datos.

Capa de salida, que produce el resultado final (un valor numérico en regresión, una probabilidad en clasificación).

Ejemplo en Python:

Con este modelo, el resultado es un vector de probabilidades que indica la pertenencia de un ejemplo a cada clase.

Ejemplo en Python:

Métrica de evaluación: MSE, RMSE o R².

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod.

Función de pérdida: el error cuadrático medio (MSE).

Métrica de evaluación: exactitud (accuracy), F1-score, precisión y recall.

Función de pérdida: entropía cruzada binaria o categórica.

Ejemplo en Python:

Ejemplo en Python:

El entrenamiento con model.fit(X_train, y_train, epochs=50, batch_size=32) ajustará los parámetros para minimizar el error.Un epoch es una pasada completa de todo el conjunto de entrenamiento por la red, mientras que el batch_size es la cantidad de muestras que se procesan juntas antes de actualizar los parámetros del modelo.

Nota. La figura muestra un perceptrón multicapa (MLP) con capa de entrada, capa oculta y capa de salida. Zhang, A., Lipton, Z. C., Li, M., & Smola, A. J. (2020). Dive into Deep Learning. https://d2l.ai/chapter_multilayer-perceptrons/mlp.html

t-SNE (t-distributed Stochastic Neighbor Embedding): Es un método no lineal diseñado para visualizar relaciones locales en 2D o 3D. Es muy usado para explorar datos de alta dimensión en campos como biología computacional o procesamiento de texto.

Ejemplo de aplicación: predecir el precio de una vivienda a partir de variables como superficie, ubicación y número de habitaciones.