UC-IIC2613 / Syllabus

27 stars 10 forks source link

activación en la última capa #208

Open guillamb opened 3 years ago

guillamb commented 3 years ago

Con las funciones tanh y sigmoid el red neuronal no entrena a menos que elimine la función de activación de la última capa. Es correcto hacerlo?

IngElecPuc commented 3 years ago

Hola Tienes que considerar qué es lo que sucede con tu problema para que veas qué pasa. Las funciones de activación te van a agregar algún grado de no linealidad, todas. Estas funciones que mencionas tienen recorridos entre (-1,1) y entre (0, 1), respectivamente. Tú estás tratando de predecir una variable continua, por lo tanto, necesitas cierta libertad de acción, eso te descarta inmediatamente este rango de acción que te fuerzan las funciones que mencionas. Ahora, tal cosa no te ocurre con ReLU, por ejemplo, pues el rango de predicción de tu variable no se ve afectado de ninguna manera por la función. Fuera de todo esto, la respuesta simple es sí, es correcto. No siempre es necesario tener una función de activación, en este caso, no cumple con ningún propósito en la capa de salida, por lo tanto no la necesitas. Saludos