Want to create interactive content? It’s easy in Genially!
FUNCIÓN DE ACTIVACIÓN
andres.valencia5918
Created on January 31, 2024
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Corporate Christmas Presentation
View
Snow Presentation
View
Nature Presentation
View
Halloween Presentation
View
Tarot Presentation
View
Winter Presentation
View
Vaporwave presentation
Transcript
FUNCIÓN DE ACTIVACIÓN
REDES NEURONALES
01
DEFINICIÓN
Una función de activación es una función que modifica los datos de generados gracias a la regresión lineal producida por la neurona, lo que trata es cambiar los datos antes de pasarlos a otra neurona, la importancia de esta radica en que son lo que permite generar el aprendizaje de la red neuronal.
02
tIPOS
Función lineal
Se usa si a la salida se requiere una regresión lineal y de esta manera a la red neuronal que se le aplica la función va a generar un valor único.
Función sigmoidea
Se dice que una función es de tipo sigmoide cuando tiene una forma similar a la de la letra griega sigma. Su trazado es simétrico, tiene un sólo nodo, y asintóticamente tiende a dos valores constantes (pero diferentes) en sus dos extremos. Sus valores van desde 0 a 1.
Función tangente hiperbólica
La Tangente Hiperbólica es una función matemática que se utiliza para mapear un rango de valores en el intervalo [-1, 1]. Se define como la relación entre el seno hiperbólico y el coseno hiperbólico de un número. En términos más simples, la Tangente Hiperbólica toma un número x y lo transforma en otro número que cae dentro del rango [-1, 1].
Función ReLU
ReLU es una de las funciones más utilizadas para introducir una no linealidad en la red neuronal, esto quiere decir introducimos un número en esta función nos devuelve el mismo número siempre que sea mayor que 0, en el caso que ese número sea menor o igual que 0, nos devolverá un 0.