RE:algoritmo backpropagation
Lo que dice el compañero es cierto, ahora, algo importante a tener en cuenta cuando diseñes la red neuronal es qué tipo de funciones de activación usar en cada capa, para ello se debe tener en cuenta el rango en que se encuentran los valores de entrenamiento de entrada y salida de la red neuronal, es decir, si los valores se encuentran entre 0 y 1 es recomendable usar LOGSIG, si se encuentran entre -1 y 1 TANSIG y fuera de este rango de valores usar PURELIN. Otro tip importante es normalizar los datos de entrada ya que esto optimiza bastante el entrenamiento de la red, haciendo que sean necesarias menos épocas. Si el vector de datos de entrada/salida no es grande se recomienda usar la función TRAINLM para el entrenamiento de la red, en caso contrario TRAINSCG.