Matlab - Entrenamiento de una RNA MLP feedforwardnet

 
Vista:

Entrenamiento de una RNA MLP feedforwardnet

Publicado por Buenaventura Ríos (2 intervenciones) el 04/02/2020 17:15:39
Hola amigos:

Estoy implementando una RNA MLP feedforwardnet y cuento con 215 Patrones, los cuales los he distribuido así: 129 entrenamiento, 43 Validación y 43 para Test. Sin embargo, para el aprendizaje he ingresado loa 129 de Entrenamiento, pero parece que, el código Matlab de TRAIN automáticamente convierte esos 129 datos de entrada en 70% inputs de Entrenamiento, 15% para Validación y 15% para Test; por lo que ya no sería necesario ingresar los datos que previamente había separado de Validación y Test. ¿Es esto así?.

net=train(net, input, output); % ¿automáticamente divide los datos ingresados (129) para Entrenamiento, Validación y Test?.

Si es así, ya no sería necesario que ingrese los Datos que separe de 43 para Validación y 43 para Test, más bien debería sumarlos a los 129 de entrenamiento.

Por otro lado, ¿Cuántas veces debo entrenar a la red?. Porque realizo varios entrenamientos y no llega a Converger. Los 129 Patrones de entrenamiento no convergen-

¿Debo entrenar la RNA y su arquitectura hasta que converjan los Resultados?, ¿Que debo hacer si no Convergen?.

Gracias.
Valora esta pregunta
Me gusta: Está pregunta es útil y esta claraNo me gusta: Está pregunta no esta clara o no es útil
0
Responder
Imágen de perfil de JESUS DAVID ARIZA
Val: 5.440
Plata
Ha mantenido su posición en Matlab (en relación al último mes)
Gráfica de Matlab

Entrenamiento de una RNA MLP feedforwardnet

Publicado por JESUS DAVID ARIZA (1817 intervenciones) el 04/02/2020 18:50:24
Hola efectivamente es así, pero antes de entrenar tu red neuronal, puedes configurar los parámetros como desees, por ejemplo:

1
2
3
net.divideParam.trainRatio = 0.6;%entrenamiento 60%
net.divideParam.valRatio = 0.2;%validación 20%
net.divideParam.testRatio = 0.2; %test 20%

bajo esta misma modalidad puedes cambiar los parámetros de entrenamiento si consideras que no converge, o aumentar el número de capas o neuronas.

Jesús David Ariza Royeth
MathWorks® Certified MATLAB® Associate


jesus.royeth@gmail.com
Valora esta respuesta
Me gusta: Está respuesta es útil y esta claraNo me gusta: Está respuesta no esta clara o no es útil
0
Comentar

Entrenamiento de una RNA MLP feedforwardnet

Publicado por Buenaventura Ríos (2 intervenciones) el 06/02/2020 23:59:48
Hola Jesús.

He incrementado el número de neuronas para una sola Capa Oculta y nada, probé con muchas neuronas, de 10 a 200, tuve mejores resultados en 40 ¿demasiados?.

También incremente una Capa Oculta y nada, entreno y pruebo, pero no converge. ¿Debo seguir entrenando?, ¿Cuántas veces?.

Gracias.
Valora esta respuesta
Me gusta: Está respuesta es útil y esta claraNo me gusta: Está respuesta no esta clara o no es útil
0
Comentar
Imágen de perfil de JESUS DAVID ARIZA ROYETH
Val: 5.440
Plata
Ha mantenido su posición en Matlab (en relación al último mes)
Gráfica de Matlab

Entrenamiento de una RNA MLP feedforwardnet

Publicado por JESUS DAVID ARIZA ROYETH (1817 intervenciones) el 07/02/2020 00:17:49
tuve mejores resultados en 40 ¿demasiados?. esto depende de la cantidad de variables que tengas en tus entradas y salidas
si los mejores resultados te dieron en 40 y no te convencen, lo más probable es que tengas que buscar otra arquitectura de red neuronal o tratar de agregar más variables de entradas que puedan explicar mejor la salida. Otra posibilidad es que veas qué parámetro está frenando el entrenamiento y aumentarlo o disminuirlo dependiendo del parámetro para que la red siga entrenando.

Jesús David Ariza Royeth
MathWorks® Certified MATLAB® Associate


jesus.royeth@gmail.com
Valora esta respuesta
Me gusta: Está respuesta es útil y esta claraNo me gusta: Está respuesta no esta clara o no es útil
0
Comentar