Actualizado el 21 de Marzo del 2018 (Publicado el 16 de Enero del 2018)
898 visualizaciones desde el 16 de Enero del 2018
938,6 KB
83 paginas
Creado hace 9a (01/04/2015)
Tabla de contenidos
1. Introducción ........................................................................................................................... 1
2. Tecnologías y Herramientas .................................................................................................. 4
2.1 Base de datos .................................................................................................................. 4
2.1.1 Datawarehouse .......................................................................................................... 5
2.1.2 Operational datastore ODS ........................................................................................ 5
2.1.3 Datamart .................................................................................................................... 6
2.2 Proceso ETL ..................................................................................................................... 7
2.2.1 Extracción de datos .................................................................................................... 7
2.2.2 Transformaciones de información .............................................................................. 7
2.2.3 Carga de repositorios ................................................................................................. 8
2.3 Weka ................................................................................................................................ 9
2.4 Algoritmos de aprendizaje supervisados..........................................................................10
2.4.1 Naive Bayes ..............................................................................................................11
2.4.2 Vecinos más cercanos (k-means) .............................................................................16
2.4.3 Redes neuronales (Perceptrón multicapa) ................................................................24
2.5 Algoritmos de aprendizaje no supervisados .....................................................................30
2.5.1 Teoría de la Resonancia Adaptativa..........................................................................31
2.5.2 Redes Bayesianas ....................................................................................................34
2.5.3 Cadenas de Markov ..................................................................................................38
2.6 Algoritmos de ensamble ..................................................................................................42
2.7 Python .............................................................................................................................51
3. Sistemas dinámicos ..............................................................................................................54
3.1 Teoría del Caos ...........................................................................................................55
3.2 Geometría Fractal ........................................................................................................57
4. Construcción de la Heurística Modelo de flor ........................................................................59
4.1 Proceso ETL Conjunto de Prueba ...................................................................................59
4.1.1 Extracción del conjunto de prueba ............................................................................59
4.1.2 Transformación del conjunto de prueba ....................................................................59
4.1.3 Carga conjunto de prueba .........................................................................................59
4.2 Construcción ...................................................................................................................59
4.2.1 Diseño .......................................................................................................................60
4.2.2 Codificación ..............................................................................................................61
4.2.3 Implementación .........................................................................................................64
4.3 Pruebas ...........................................................................................................................64
4.3.1 Cambio del tamaño fractal ........................................................................................64
4.3.2 Cambio de conjunto de entrenamiento ......................................................................67
4.4 Conclusiones de la heurística ..........................................................................................74
5. Conclusiones ........................................................................................................................75
6. Bibliografía ............................................................................................................................76
1. Introducción
En la vida cotidiana encontramos un sinfín de fenómenos en los cuales nuestra
percepción de orden parece pasar por alto el detalle de lo contemplado, tal
es el caso de la forma de las plantas, esparcimiento un virus, crecimiento de
poblaciones urbanas, el comportamiento del clima, la interferencia en las
señales de telecomunicaciones, trata de personas y fluctuaciones en la bolsa
de valores, etc. En estos casos podemos hacer una analogía con un fractal
(objeto cuya estructura básica, fragmentada o irregular, se repite a
diferentes escalas). Gracias a matemáticos como Mandelbrot podemos crear de
manera artificial recreaciones de la naturaleza con detalles asombrosos. Y
para el caso de los comportamientos aparentemente caóticos hay ya una gama de
artefactos matemáticos que permiten hacer análisis y predicción. Por ejemplo
la ecuación logística para el crecimiento de poblaciones sujeta a diferentes
parámetros y condiciones iníciales.
De manera natural es difícil encontrar líneas rectas o circulares sin embargo
las siluetas complejas, pliegues, espirales y el aparente desorden parece
más casual. El imaginario de series fractales con cierto grado de
fluctuaciones permite modelar árboles, mapas, texturas, virus, modelos
atómicos. De manera que los caprichos de la naturaleza nos sugieren una pista
dentro de sus elaborados diseños.
Por otra parte nos encontramos en un punto histórico donde tenemos la
capacidad de procesar enormes cantidades de información (procesos ETL y Big
Data) y disponemos de algoritmos que empiezan a servir las veces de expertos
en temas específicos. No sería raro que la siguiente década los expertos en
enfermedades sean sistemas programados para tal función. Lo que nos lleva a
la premisa de este trabajo. ¿Existe una relación fractal dentro de sistemas
caóticos?
Para contestar la pregunta es conveniente analizar los algoritmos de
aprendizaje supervisado en especial Bayes ingenuo que permite hacer un cambio
entre las clasificaciones a post priori y las predicciones a priori. Y en
general los algoritmos supervisados nos permiten dar un vistazo al
comportamiento caótico así como a los sistemas de procesamiento de datos
robustos y procesos ETL.
La información recolectada con los algoritmos de aprendizaje
supervisado nos socorrerán a contestar la pregunta, los algoritmos de
aprendizaje no supervisado nos pueden ayudar con los múltiples problemas que
se presentan con los datos estáticos. Más tarde haremos uso de los algoritmos
de Inteligencia Artificial para capturar la esencia de la geometría fractal y
con ella hacer que los datos de creen cúmulos de datos de manera que se
comporten como entidades fractales.
La teoría del caos es una denominación popular de la rama de las matemáticas
que trata ciertos tipos de sistemas dinámicos que son muy susceptibles a las
Proyecto de Investigación II Inteligencia Artificial
Pag 1
variaciones en las condiciones iníciales. Pequeñas variaciones en dichas
condiciones pueden implicar grandes diferencias en el comportamiento futuro
imposibilitando la predicción a largo plazo. La mayoría de los movimientos
mencionados en la teoría anterior suceden alrededor de atractores simples,
tales como puntos y curvas circulares llamados ciclos límite. Los atractores
son similares al centro de una circunferencia y sucede que encontrando un
atractor se puede describir al menos parcialmente el comportamiento del
fenómeno. El primero de éstos fue hallado, por casualidad, por el meteorólogo
Edward Lorenz cuando trataba de encontrar un modelo matemático que permitiera
predecir el comportamiento de grandes masas de aire. Consiguió ajustar el
modelo a sólo tres variables que indican cómo cambian la velocidad y la
temperatura del aire a lo largo del tiempo (atractor de Lorenz). Después de
haber estudiado el modelo, volvió a introducir los datos iniciales esta vez
con menos decimales y el resultado que obtuvo fue completamente diferente del
anterior. Cuando reflexionó sobre los resultados se dio cuenta que el sistema
era extremadamente sensible a las condiciones iníciales: pequeñas
perturbaciones en los datos de partida tienen una gran influencia sobre el
resultado final. Sus ecuaciones captaban la esencia de la verdadera
atmósfera. “Aquel primer día (invierno de 1961) de
Comentarios de: Inteligencia Artificial - Proyecto de Investigación II (0)
No hay comentarios