Actualizado el 18 de Mayo del 2020 (Publicado el 20 de Diciembre del 2017)
1.591 visualizaciones desde el 20 de Diciembre del 2017
121,9 KB
21 paginas
Creado hace 17a (09/10/2007)
Introducción a
la Inteligencia Artificial
(IA)
1
1
Introducción
(cid:122) J.McCarthy: “It is the science and engineering
of making intelligent machines, especially
intelligent computer programs […] using
computers to understand human intelligence”
» Entender y construir agentes inteligentes
» Ver:
http://www.aaai.org/AITopics/html/reference.html#on
line
(cid:122) Orígenes
» Desde la antigüedad: estudio de la memoria, el
aprendizaje, el razonamiento, etc.
» Aproximaciones a la IA con la 2ª Guerra Mundial.
» Denominación Inteligencia Artificial: J. McCarthy en
conferencia Dartmouth de 1956 J. McCarthy, M. L.
Minsky, N. Rochester, and C.E. Shannon.
(cid:122) Disciplinas relacionadas con Inteligencia
Artificial:
» Percepción (visión, PLN), razonamiento lógico,
resolución de problemas, demostración automática,
aprendizaje, representación de conocimiento, etc.
2
2
Historia de la IA, I
(cid:122) Gestación de la IA (1943-1956).
» Neuronas artificiales. McCulloch y Pitts (1943).
» Programas de ajedrez. Shannon y Turing (1951).
Leonardo Torres Quevedo (1914).
» General Problem Solver (Puzzles).
» Geometry Theorem Prover. IBM, 1959.
» LISP. Creado por John McCarthy en 1958. MIT.
» Algoritmo de resolución de Robinson (1965).
» Mundo de bloques:
– Visión.
– Propagación de Restricciones.
– Lenguaje Natural.
– Planificación.
3
3
Historia de la IA, II
(cid:122) Entusiasmo (1952-1969)
» M.Minsky: Búsqueda heurística. Aprendizaje (1968)
» T.Winograd: Comprensión de LN (1972)
» P.Winston: Mundo de bloques (1970/75)
(cid:122) Realismo (1966-1974)
» Intratabilidad computacional de las soluciones
» Sistemas basados en el conocimiento (1969-1979).
– DENDRAL (1969): Buchanan et al. Estructura molecular.
– SHRDLU (1971): Winograd.
– MYCIN (1974): Buchanan et al. Diagnóstico médico.
Incertidumbre.
(cid:122) IA moderna
» IA en la industria (1980-1988).
– Sistemas Expertos comerciales (década de los 90)
– Minería de datos (década de los 90).
(cid:122) Recuperación de Información (Salton, Spärk-Jones).
» Redes neuronales
– Explotación de métodos teóricos de mediados de siglo.
(cid:122) Mecánica estadística (Hopfield), modelos de memoria
de Rummelhart, redes topológicas (Kohonen).
» Aprendizaje Automático
» Representación del conocimiento. Tecnologías.
– Redes Bayesianas (Pearl 1988)
– Agentes (SOAR Newell et al. 1987)
– Inteligencia distribuida / colectiva, Redes Sociales, Web
Crawling, , Robots (mascotas, autónomos (DARPA)),
domótica, etc.
4
4
Campos relacionados con
IA, I
(cid:122) Filosofía (desde 428 a.C.).
» Teorías de razonamiento, aprendizaje, etc
» Platón, Sócrates, Aristóteles
» Descartes (s. XVI). Distinción entre “mente” y
“materia”.
» Leibniz (s. XVII). Materialismo.
» Francis Bacon (s. XVI). Empirismo.
» Bertran Russell (s. XIX). Positivismo lógico.
(cid:122) Matemáticas (desde 800).
» Teorías formales de Lógica, Probabilidad, Teoría de
la Decisión.
» Noción de algoritmo de Al-khowarazmi (matemático
árabe, s. IX)
» Boole (1815)
» Frege (1848). Lógica de primer orden.
» Hilbert (1862). En 1900, presentó “23 problemas
para el siglo XX”.
5
5
Campos relacionados con
IA, II
» Gödel (1906).
– Teorema de incompletitud (1931).
(cid:122) En Lógica de Primer Orden con aritmética
inductiva hay fórmulas ciertas no
demostrables.
(cid:122) Psicología (desde 1879).
» Teorías para estudiar la mente. Psicología cognitiva.
– Craik (1943). Etapas de un agente basado en el
conocimiento:
(cid:122) Transformación del estímulo a una
representación interna.
(cid:122) Derivación de las representaciones internas.
(cid:122) Traducción de las representaciones internas
a acciones.
(cid:122) Lingüística (desde 1957).
– Teorías acerca de la estructura y significado del
lenguaje.
(cid:122) Informática (desde 1940).
– Herramientas para hacer realidad IA
6
6
Propósito de la IA
PENSAR
como
SER
HUMANO
2.
Máquinas con
mente
ACTUAR
como
1.
Androides
SER
RACIONAL
3.
Modelos para
procesos
naturales
4.
Diseño de
máquinas con
comportamient
o inteligente
7
7
Definición de IA, I
(cid:122) 1) Sistemas que actúan como el
hombre.
» Test de Turing. Computing machinery and
intelligence, Mind, 59, 433:460, 1950.
» Comportamiento inteligente
– Incapacidad de diferenciar entre respuestas del
ordenador y repuestas humanas.
– Supone:
(cid:122) Procesamiento del Lenguaje Natural.
(cid:122) Representación del Conocimiento.
(cid:122) Razonamiento Automático.
(cid:122) Aprendizaje Automático.
» Test total de Turing.
– Se permitiría interacción física entre persona y
ordenador.
– Supone:
(cid:122) Visión (para percibir objetos).
(cid:122) Robótica (para mover objetos).
8
8
Definición de IA, II
(cid:122) 2) Sistemas que piensan como el
hombre.
» Teorías de funcionamiento de la mente
humana:
– Campos de visión
– Lenguaje Natural
– Aprendizaje
» Se buscan modelos de IA compatibles con
técnicas experimentales en Psicología.
9
9
Definición de IA, III
(cid:122) 3) Sistemas que piensan
racionalmente.
» Desarrollo de Lógica Formal a finales del
siglo XIX y principios del XX.
» Trata de crear sistemas inteligentes
utilizando la Lógica Formal.
– Del estilo de los silogismos de Aristóteles:
(cid:122) “Sócrates es un hombre.
(cid:122) Todos los hombres son mortales,
(cid:122) luego Sócrates es mortal”
» Hacia 1965, había programas que
resolvían problemas formulados en Lógica
(supuestos memoria y tiempos suficientes).
» Inconvenientes:
– Necesaria una representación del conocimiento
informal (o difuso). Uso de probabilidades.
– Explosión combinatoria de posibilidades.
10
10
Definición de IA, IV
(cid:122) 4) Sistemas que actúan racionalmente.
» Uso de agentes: percepción + actuación.
» Se necesita resolver situaciones, que el
pensamiento racional no puede por sí solo
hacer:
– Acciones reflejas: “retirar la mano del fuego”.
» El estudio de IA como agentes racionales
tiene dos ventajas:
– Es más general que el “pensamiento racional”.
– Es más cercano al método científico que el
comportamiento y el pensamiento humanos.
11
11
Agentes, I
(cid:122) Agente: percepción + actuación.
» Agente racional: persigue éxito en sus
objetivos
» Ejemplos de agentes racionales:
descripciones PAGE
– Sistema de diagnosis médicas.
(cid:122) Percepciones: síntomas, respuestas
pacientes
(cid:122) Acciones: tratamientos, pruebas, preguntas
(cid:122) Objetivos: la salud del paciente,
minimización de costes
(cid:122) Entorno: el paciente, el hospital
– Controlador de una refinería.
(cid:122) Percepciones: temperatura, presión
(cid:122) Acciones: abrir, cerrar válvulas, ajustar
temperatura
(cid:122) Objetivos: maximizar la pureza, seguridad
(cid:122) Entorno: una refinería
12
12
Agentes, II
– Un tutor interactivo de inglés.
(cid:122) Percepciones: palabras escritas
(cid:122) Acciones: crear ejercicios,
sugerencias, correcciones
(cid:122) Objetivos: maximizar las
calificaciones del alumno
(cid:122) Entorno: un conjunto de estudiantes
– Un taxista automático.
(cid:122) Percepciones: cámaras, velocímetro,
micrófono
(cid:122) Acciones: mover el volante, acelerar,
frenar, hablar al pasajero
(cid:122) Objetivo: seguridad, rapidez,
legalidad, comodidad
(cid:122) Entorno: carreteras, autopistas
13
13
Agente simple
(cid:122) Algoritmo:
función agente-simple (percepción)
“return” una acción
;;;;; variable global
memoria
memoria = actualiza-memoria(memoria, percepción)
acción = elige-mejor-acción(memoria)
memoria = actualiza-memoria (memoria, acción)
“return” acción
(cid:122) Observaciones:
» Se debería mantener una secuencia de
percepciones en memoria (no siempre es
posible)
» Se deberían tener criterios externos de
éxito (la medida del desempeño no es
parte de la descripción del agente)
14
14
Agente de búsqueda en
tablas
(cid:122) Implementa un mapa ideal de comportamiento
(cid:122) Dificultad en conseguir que el agente razone
(cid:122) Algoritmo:
función agente-de-búsqueda-en-tablas (percepción)
“return” una acción
;;;;;;;;;;;;;
percepciones
tabla
variables globales
;lista inicialmente vacía
;indexada por lista de
percepciones
añade-percepción-al-final-de-
percepciones(percepción, percepciones)
acción = busca(percepciones, tabla)
“return” acción
(cid:122) Inconvenientes:
» Tabla enorme (y difícil de generar).
» Agente sin autonomía (si el entorno
cambia, la tabla también debería hacerlo).
15
15
Agente reflejo simple
(cid:122) Es imposible construir una tabla de búsqueda
para cualquier secuencia de percepciones.
(cid:122) Incorporan el uso de reglas:
» Si “coche-de-enfrente-frena” entonces “frenar”
– (resume información y especifica comportamiento)
(cid:122) Algoritmo:
función agente-reflejo-simple (percepción)
“return” una acción
;;;;; variable global
reglas
;;; se genera descripción abstracta de la percepción
estado = interpreta (percepción)
;;; selecciona regla que cumple descripción estado
regla = selecciona-regla (estado, reglas)
acción=aplica-regla(regla)
“return” acción
(cid:122) El uso de reglas ayuda en la toma de
decisiones del agente
16
16
Un agente reflejo con
estado
(cid:122) Se mantiene un estado del mundo
(configurado por las percepciones).
(cid:122) Algoritmo:
funcion agente-reflejo-con-estado (percepción)
“returns” una acción
;;;variables globales
estado, reglas
;;; se actualiza la descripción interna del estado que
;;; mantiene el agente
estado = actualiza-estado (estado, percepción)
regla = selecciona-regla (estado, reglas)
acción=aplica-regla(regla)
estado = actualiza-estado (estado, acción)
“return” acción
17
17
Otros agentes
(cid:122) Agente basado en el objetivo
» La información del objetivo es relevante
» Combinación de información sobre objetivo con
información de sus posibles acciones
– Ejemplo: En una intersección, es posible “izquierda”,
“derecha” o “recto”, per
Comentarios de: Introducción a la Inteligencia Artificial (IA) (0)
No hay comentarios