Función de Activación

August 28, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Función de Activación...

Description

 

Función de activación Estructura neuronal Una neurona artificial se compone de un sumador y una función de activación. Las señales de entrada (representadas por x en la figura) se multiplican por cada peso W. Luego, la suma y1 se aplica a la función de activación f (y1) para producir la salida z1.

Función de activación La función de activación debe ser un sigmoide (tiene forma de S), real, continua, limitada y tiene t iene un derivado positivo. Dos de las funciones de activación más populares (para redes neuronales multicapa) son la tangente hiperbólica (z = tanh (y)) y la función logística (z = logsig (y)). La ANN que se muestra a continuación tiene tres entradas y una salida.

 

Parcialidad Cada neurona tiene una entrada fija llamada Bias que siempre tiene un valor de uno. El sesgo permite que la neurona aumente su flexibilidad de aprendizaje cambiando el valor de y según se requiera para las condiciones específicas del problema.

 

 

 

Problema 5 Indique las principales similitudes y diferencias entre las funciones: logsig y tanh.

Problema 6 Indique si la siguiente afirmación es verdadera o falsa. Cuando las neuronas de una ANN utilizan la función logsig, los valores de salida de la red no pueden exceder un valor de uno, sin importar qué entrada se aplique a la red. Es imposible alcanzar un valor fuera del rango [0 1] en la salida de la ANN. Si el rango requerido es mayor que de cero a uno, e entonces ntonces la señal de salida debe escalarse adecuadamente.

Problema 7 Indique si la siguiente afirmación es verdadera o falsa. Cuando las neuronas de una ANN operan utilizando la función tanh, es muy importante tener en cuenta que la señal de salida está limitada al rango de -1 a 1. 1 . La función tanh tiene una forma muy similar a la forma de la función logsig. Sin embargo, el rango inferior para la función logsig es cero en comparación con el rango inferior del

tanh que es -1.

Propina Siempre escale la salida de una ANN usando la función logsig para usar eficientemente el rango de salida (0 a 1). Esto significa que si hay algunos valores grandes ocasionales que obligarán a la escala a atenuar severamente la señal de salida, estos valores deben recortarse antes de escalar.

Propina En algunas aplicaciones, es muy importante calcular rápidamente la función de activación de una neurona artificial. Esto se puede lograr: Construyendo una tabla de búsqueda con los valores de la función de activación para un conjunto de valores distribuidos uniformemente Construyendo una tabla de búsqueda con los valores de la función de activación derivada de un conjunto de valores distribuidos uniformemente Haciendo uso de las propiedades de la función de activación. Por ejemplo, si el valor de entrada es e s mayor que 5, la función de activación es una. Si el valor de entrada es menor que -5, la función de activación es 0 para el logsig (y) y -1 para el tanh (y). 

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF