Want to create interactive content? It’s easy in Genially!

Get started free

FUNCIÓN DE ACTIVACIÓN

andres.valencia5918

Created on January 31, 2024

Start designing with a free template

Discover more than 1500 professional designs like these:

Corporate Christmas Presentation

Snow Presentation

Nature Presentation

Halloween Presentation

Tarot Presentation

Winter Presentation

Vaporwave presentation

Transcript

FUNCIÓN DE ACTIVACIÓN

REDES NEURONALES

01

DEFINICIÓN

Una función de activación es una función que modifica los datos de generados gracias a la regresión lineal producida por la neurona, lo que trata es cambiar los datos antes de pasarlos a otra neurona, la importancia de esta radica en que son lo que permite generar el aprendizaje de la red neuronal.

02

tIPOS

Función lineal

Se usa si a la salida se requiere una regresión lineal y de esta manera a la red neuronal que se le aplica la función va a generar un valor único.

Función sigmoidea

Se dice que una función es de tipo sigmoide cuando tiene una forma similar a la de la letra griega sigma. Su trazado es simétrico, tiene un sólo nodo, y asintóticamente tiende a dos valores constantes (pero diferentes) en sus dos extremos. Sus valores van desde 0 a 1.

Función tangente hiperbólica

La Tangente Hiperbólica es una función matemática que se utiliza para mapear un rango de valores en el intervalo [-1, 1]. Se define como la relación entre el seno hiperbólico y el coseno hiperbólico de un número. En términos más simples, la Tangente Hiperbólica toma un número x y lo transforma en otro número que cae dentro del rango [-1, 1].

Función ReLU

ReLU es una de las funciones más utilizadas para introducir una no linealidad en la red neuronal, esto quiere decir introducimos un número en esta función nos devuelve el mismo número siempre que sea mayor que 0, en el caso que ese número sea menor o igual que 0, nos devolverá un 0.