PDF de programación - MatLab & Redes Neuronales

Imágen de pdf MatLab & Redes Neuronales

MatLab & Redes Neuronalesgráfica de visualizaciones

Publicado el 17 de Marzo del 2020
965 visualizaciones desde el 17 de Marzo del 2020
417,1 KB
7 paginas
Creado hace 10a (14/06/2013)
MatLab & Redes Neuronales

Rubén Wismark Plata Cheje

[email protected]

RESUMEN
En el marco de las jornadas de conferencias de ingeniería
electrónica JCEE’02, se presenta un breve resumen de una de las
aplicaciones típicas de las redes neuronales artificiales ANN
(Artificial Neural Network).
En ella, un perceptrón multinivel MLP (Multilayer Perceptron)
se usa para el reconocimiento óptico de caracteres OCR (Optical
Character Recognition). Por último, se simula una red neuronal
en el entorno MATLAB, entrenándola mediante el conocido
algoritmo back propagation BP.

Palabras Claves
Red neuronal, entradas, pesos, bias, función de transferencia,
salidas, sumación, sigmoide, algoritmo de entrenamiento,
feedforward,
salida deseada, gradiente
descendente, entrenamiento por lote, tan-sigmoide, radbas, pesos
de la entrada, los pesos de las capas, momentum, mínimo local,
backpropagation, GUI, nntool.

1. INTRODUCCION.
Las redes neuronales son una rama de la Inteligencia Artificial.
En las redes neuronales el conocimiento se incorpora mediante
el aprendizaje a partir de ejemplos.


red multicapa,

Figura1



Las redes neuronales como su nombre lo indica pretenden imitar
a pequeñísima escala la forma de funcionamiento de las
neuronas que forman el cerebro humano.


Entonces en el campo de la IA(Inteligencia Artificial), las redes
neuronales son dispositivos inspirados en la funcionalidad de las
neuronas biológicas, aplicados al reconocimiento de patrones
que las convierten aptas para modelar y efectuar predicciones en
sistemas muy complejos. Las Rn son un conjunto de técnicas
matemáticas para modelar las conexiones / relaciones entre un
conjunto de datos.

2. MARCO TEORICO
2.1 Redes Neuronales
Una red neuronal artificial es un procesador distribuido en
paralelo de forma masiva que tiene una tendencia natural para
almacenar conocimiento de forma experimental y lo hace
disponible para su uso.
Se parece al cerebro humano en dos aspectos:

• El conocimiento es adquirido por la red a través de un

proceso de aprendizaje.

• Los pesos sinápticos o fuerza con que están interconectadas

las neuronas se utilizan para almacenar la información.

• Otras definiciones son:
• Una nueva forma de computación, inspirada en modelos

biológicos.

• Un modelo matemático compuesto por un gran número de

elementos procesales organizados en niveles.

• Un sistema de computación hecho por un gran numero de
elementos simples, elementos de proceso interconectados,
los cuales procesan información por medio de su estado
dinámico como respuesta a entradas externas.

• Redes neuronales artificiales son redes interconectadas
masivamente en paralelo de elementos simples (usualmente
adaptativos) y con organización jerárquica, las cuales
intentan interactuar con los objetos del mundo real del
mismo modo que lo hace el sistema nervioso biológico.

Aunque cada definición aporta información sobre lo que es una
red neuronal, para saber como funcionan y en que consisten es
necesario desarrollar una explicación extensa. Sin embargo, en
este trabajo se describirá una aplicación típica de las redes
neuronales multicapa, concretamente el reconocimiento de
patrones.


Figura 2.



Figura 3.



.

90

la respuesta obtenida se asemeje más a la salida deseada.
Concretando, se puede decir que un perceptron multicapa tiene
tres características:

1. El modelo de cada neurona (figura 2) incluye una función no
lineal. En este caso, a diferencia del perceptrón
donde es la función escalón, y debido a la necesidad de que
sea una función continua y derivable, es la función sigmoide,
donde uk es la suma total de la actividad interna en la neurona k
(la señal de entrada) e yk la salida que se produce en la neurona.



2. La red contiene una o más capas ocultas de neuronas que no
forman parte ni de la entrada ni de la salida. Estas neuronas
ocultas capacitan a la red para aprender progresivamente
cualquier correspondencia entre la entrada
y la salida y almacenar internamente esta información.

3. La red posee un gran número de conexiones, estas vienen
determinadas por los pesos de la red. Un cambio en la conexión
entre las neuronas equivale a un cambio en los pesos.
La combinación de estas características, hace que la habilidad de
esta red para aprender a partir del entrenamiento sea muy
potente, por ejemplo es capaz de resolver el problema de la OR-
exclusiva a diferencia del perceptrón.

De todas formas, este comportamiento hace que sea difícil
conocer a priori la respuesta de la red. Esto se debe a dos
motivos, el comportamiento no lineal de las neuronas, las cuales
están muy interconectadas, (lo que hace difícil un análisis
teórico de la red) y la existencia de neuronas ocultas, que impide
poder “ver” como se produce el aprendizaje y determinar cuales
son las características que mejorarían el aprendizaje.

El desarrollo del algoritmo back propagation proporciona un
método eficiente para entrenar este tipo de redes. Aunque no es
capaz de resolver todos los problemas, se ha demostrado como
el mejor de todos. Su importancia está en su capacidad de
autoadaptar los pesos de las neuronas intermedias para aprender
la relación que existe entre el conjunto de vectores o patrones de
entrada y su correspondiente salida, y poder aplicar esa relación
después del entrenamiento a nuevos vectores de entrada
imperfectos o con ruido. Esta capacidad se conoce como
generalización. La red debe encontrar una representación interna
que le permita generar las salidas deseadas durante la etapa de
entrenamiento, y posteriormente durante el funcionamiento ser
capaz de generar salidas para entradas que no le fueron
mostradas durante el aprendizaje pero que se asemejan a alguna
de las que si le fueron mostradas.

2.2 MatLab
MATLAB es un entorno de computación y desarrollo de
aplicaciones totalmente integrado orientado para llevar a cabo
proyectos en donde se encuentren implicados elevados cálculos
matemáticos y la visualización gráfica de los mismos. MATLAB
integra análisis numérico, cálculo matricial, proceso de señal y
visualización gráfica en un entorno completo donde
los
problemas y sus soluciones son expresados del mismo modo en

Figura4



En este tipo de tarea hay un número fijo de categorías en las
cuales las muestras de entrada deben clasificarse. Para ello
primero se requiere una fase de entrenamiento en la que se
presenta a la red los patrones que debe aprender y la categoría en
cual clasificarlo. Entonces se le presenta a la red un patrón
nuevo y desconocido pero que pertenece a alguna de las
categorías aprendidas y esta debe decidir a que categoría se
parece más.

La ventaja de usar redes neuronales está en el hecho que se
pueden separar regiones no lineales de decisión tan complicadas
como se desee dependiendo del número de neuronas y capas.
Por lo tanto, las redes neuronales artificiales sirven para resolver
problemas de clasificación de alta complejidad.

2.1.1. Perceptrón Multinivel
Dentro de las redes neuronales, las que más utilizadas son las
redes con múltiples capas que funcionan hacia delante. Esta red
esta compuesta por un conjunto de nodos de entrada que
componen la capa de entrada, un conjunto de una o más capas
ocultas de neuronas y una capa de neuronas de salida. La señal
de entrada se propaga hacia adelante desde la capa de entrada
por la oculta hasta la salida; este tipo de configuración se conoce
como MLP o “MultiLayer Perceptrons” (figura 1) [1],[2],[3].

El hecho de que este tipo de red se aplique para resolver con
éxito multitud de problemas se debe a la utilización del
algoritmo de aprendizaje que actualmente está más extendido, el
algoritmo o regla back propagation, el cual es
una generalización de la regla LMS “Least Mean Square”, por lo
tanto también se basa en la corrección del error.
Básicamente el proceso back propagation consiste en dos
pasadas a través de las diferentes capas de la red, una pasada
hacia adelante y una pasada hacia atrás. En la pasada hacia
adelante, se aplica en la capa de entrada un patrón o vector de
entrada, este propaga su efecto a través de las diferentes capas y
como consecuencia produce un vector de salida. Durante este
proceso, los pesos sinápticos de la red son fijos y no se
modifican.

Durante la pasada hacia atrás en cambio, los pesos si se
modifican de acuerdo con la regla de corrección del error.
La señal de salida real se compara con la señal deseada y como
resultado se obtiene una señal de error, que se propaga en
dirección contraria a través de la red modificando los pesos, de
forma que, al volver a pasar el vector de entrada hacia adelante,



91

control

análisis

robusto,
simbólicas,

estadística,
redes neurales,

que se escribirían adicionalmente, sin necesidad de hacer uso de
la programación tradicional.
MATLAB dispone también en la actualidad de un amplio
abanico de programas de apoyos especializados, denominados
Toolboxes, que extienden significativamente el número de
funciones
incorporadas en el programa principal. Estos
Toolboxes cubren en la actualidad prácticamente casi todas las
áreas principales en el mundo de la ingeniería y la simulación,
destacando entre ellos el 'toolbox' de proceso de imágenes,
financiero,
señal,
matemáticas
lógica difusa,
identificación de sistema
  • Links de descarga
http://lwp-l.com/pdf17411

Comentarios de: MatLab & Redes Neuronales (0)


No hay comentarios
 

Comentar...

Nombre
Correo (no se visualiza en la web)
Valoración
Comentarios...
CerrarCerrar
CerrarCerrar
Cerrar

Tienes que ser un usuario registrado para poder insertar imágenes, archivos y/o videos.

Puedes registrarte o validarte desde aquí.

Codigo
Negrita
Subrayado
Tachado
Cursiva
Insertar enlace
Imagen externa
Emoticon
Tabular
Centrar
Titulo
Linea
Disminuir
Aumentar
Vista preliminar
sonreir
dientes
lengua
guiño
enfadado
confundido
llorar
avergonzado
sorprendido
triste
sol
estrella
jarra
camara
taza de cafe
email
beso
bombilla
amor
mal
bien
Es necesario revisar y aceptar las políticas de privacidad