Open guillamb opened 3 years ago
Hola Tienes que considerar qué es lo que sucede con tu problema para que veas qué pasa. Las funciones de activación te van a agregar algún grado de no linealidad, todas. Estas funciones que mencionas tienen recorridos entre (-1,1) y entre (0, 1), respectivamente. Tú estás tratando de predecir una variable continua, por lo tanto, necesitas cierta libertad de acción, eso te descarta inmediatamente este rango de acción que te fuerzan las funciones que mencionas. Ahora, tal cosa no te ocurre con ReLU, por ejemplo, pues el rango de predicción de tu variable no se ve afectado de ninguna manera por la función. Fuera de todo esto, la respuesta simple es sí, es correcto. No siempre es necesario tener una función de activación, en este caso, no cumple con ningún propósito en la capa de salida, por lo tanto no la necesitas. Saludos
Con las funciones tanh y sigmoid el red neuronal no entrena a menos que elimine la función de activación de la última capa. Es correcto hacerlo?