Introducción a
la Inteligencia Artificial
Introducción
(cid:122) Entender (construir) agentes
inteligentes.
(cid:122) Origen del nombre: 1956. Iniciada por
uso de ordenadores.
» Aunque durante más de 2000 años los
filósofos estudiaron: memoria, aprendizaje,
razonamiento, etc.
(cid:122) Disciplinas relacionadas con
Inteligencia Artificial (IA):
» Percepción, Razonamiento lógico,
Resolución de Problemas, Demostración
de Teoremas, Diagnósticos de
Enfermedades, Ajedrez, etc.
1
2
1
Definición de IA, I
Definición de IA, II
(cid:122) 1) Sistemas que actúan como el
hombre.
» Test de Turing (1950). Comportamiento
inteligente.
– Incapacidad de diferenciar entre respuestas del
ordenador y repuestas humanas.
– Supondría:
(cid:122) Procesamiento del Lenguaje Natural.
(cid:122) Representación del Conocimiento.
(cid:122) Razonamiento Automático.
(cid:122) Aprendizaje Automático.
» Test total de Turing.
– Se permitiría interacción física entre persona y
ordenador.
– Supondría:
(cid:122) Visión (para percibir objetos).
(cid:122) Robótica (para mover objetos).
3
(cid:122) 2) Sistemas que piensan como el
hombre.
» Teorías de funcionamiento de la mente
humana:
– Campos de visión
– Lenguaje Natural
– Aprendizaje
» Se buscan modelos de IA compatibles con
técnicas experimentales en Psicología.
4
2
Definición de IA, III
Definición de IA, IV
(cid:122) 3) Sistemas que piensan
racionalmente.
» Desarrollo de Lógica Formal a finales del
siglo XIX y principios del XX.
» trata de crear sistemas inteligentes
utilizando la Lógica Formal.
– Del estilo de los silogismos de Aristóteles:
(cid:122) “Sócrates es un hombre.
(cid:122) Todos los hombres son mortales,
(cid:122) luego Sócrates es mortal”
» Hacia 1965, había programas que
resolvían problemas formulados en Lógica
(supuestos memoria y tiempos suficientes).
» Inconvenientes:
– Necesaria una representación del conocimiento
informal (o difuso). Uso de probabilidades.
– Explosión combinatoria de posibilidades.
5
(cid:122) 4) Sistemas que actúan racionalmente.
» Uso de agentes: percepción + actuación.
» Se necesita resolver situaciones, que el
pensamiento racional no puede por sí solo
hacer:
– Acciones reflejas: “retirar la mano del fuego”.
» El estudio de IA como agentes racionales
tiene dos ventajas:
– Es más general que el “pensamiento racional”.
– Es más cercano al método científico que el
comportamiento y el pensamiento humanos.
6
3
Campos relacionados con
IA, I
Campos relacionados con
IA, II
(cid:122) Filosofía (desde 428 a.C.).
» Teorías de razonamiento, aprendizaje, etc
» Platón, Sócrates, Aristóteles
» Descartes (s. XVI). Distinción entre “mente” y
“materia”.
» Leibniz (s. XVII). Materialismo.
» Francis Bacon (s. XVI). Empirismo.
» Bertran Russell (s. XIX). Positivismo lógico.
(cid:122) Matemáticas (desde 800).
» Teorías formales de Lógica, Probabilidad, Teoría de
la Decisión.
» Noción de algoritmo de Al-khowarazmi (matemático
árabe, s. IX)
» Boole (1815)
» Frege (1848). Lógica de primer orden.
» Hilbert (1862). En 1900, presentó “23 problemas
para el siglo XX”.
» Gödel (1906).
– Teorema de incompletitud (1931).
(cid:122) En Lógica de Primer Orden con aritmética
inductiva hay fórmulas ciertas no
demostrables.
(cid:122) Psicología (desde 1879).
» Teorías para estudiar la mente. Psicología cognitiva.
– Craik (1943). Etapas de un agente basado en el
conocimiento:
(cid:122) Transformación del estímulo a una
representación interna.
(cid:122) Derivación de las representaciones internas.
(cid:122) Traducción de las representaciones internas
a acciones.
(cid:122) Lingüística (desde 1957).
– Teorías acerca de la estructura y significado del
lenguaje.
(cid:122) Informática (desde 1940).
– Herramientas para hacer realidad IA
7
8
4
Historia de la IA, I
Historia de la IA, II
(cid:122) Gestación de la IA (1943-1956).
» Neuronas artificiales. McCulloch y Pitts (1943).
» Programas de ajedrez. Shannon y Turing (1951).
» Nombre IA (1956). John McCarthy en un “workshop”
en Dartmout.
» General Problem Solver (puzzles).
» Geometry Theorem Prover. IBM, 1959.
» LISP. Creado por John McCarthy en 1958. MIT.
» Algoritmo de resolución de Robinson (1965).
» Algunos problemas se atacan desde muchos puntos
de vista (como el “mundo de bloques”):
– Visión. Propagación de Restricciones. Lenguaje
Natural. Planificación.
(cid:122) Entusiasmo (1952-1969).
(cid:122) Realismo (1966-1974).
» El algoritmo de resolución produce una explosión
combinatoria al tratar muchos axiomas.
» Traducción automática es difícil.
(cid:122) Sistemas basados en el conocimiento (1969-1979).
– Nuevas expectativas.
– Programa DENDRAL (1969). Obtiene una
fórmula molecular a partir de su fórmula
elemental y del bombardeo con electrones.
– Sistemas expertos. Aplicación a diagnosis
médica.
(cid:122) IA se relaciona con la industria (1980-1988).
(cid:122) Recientemente (desde 1987).
» Reconocimiento de habla. Planificación.
9
10
Agentes, I
Agentes, II
(cid:122) Agente: percepción + actuación.
» Agente racional: persigue éxito en sus
objetivos
» Ejemplos de agentes racionales:
– Sistema de diagnosis médicas.
(cid:122) Percepciones: síntomas, respuestas
pacientes
(cid:122) Acciones: tratamientos, pruebas, preguntas
(cid:122) Objetivos: la salud del paciente,
minimización de costes
(cid:122) Entorno: el paciente, el hospital
– Controlador de una refinería.
(cid:122) Percepciones: temperatura, presión
(cid:122) Acciones: abrir, cerrar válvulas, ajustar
temperatura
(cid:122) Objetivos: maximizar la pureza, seguridad
(cid:122) Entorno: una refinería
– Un tutor interactivo de inglés.
(cid:122) Percepciones: palabras escritas
(cid:122) Acciones: crear ejercicios,
sugerencias, correcciones
(cid:122) Objetivos: maximizar las
calificaciones del alumno
(cid:122) Entorno: un conjunto de estudiantes
– Un taxista automático.
(cid:122) Percepciones: cámaras, velocímetro,
micrófono
(cid:122) Acciones: mover el volante, acelerar,
frenar, hablar al pasajero
(cid:122) Objetivo: seguridad, rapidez,
legalidad, comodidad
(cid:122) Entorno: carreteras, autopistas
11
12
5
6
Agente simple
(cid:122) Algoritmo:
función agente-simple (percepción)
“return” una acción
;;;;; variable global
memoria
memoria = actualiza-memoria(memoria, percepción)
acción = elige-mejor-acción(memoria)
memoria = actualiza-memoria (memoria, acción)
“return” acción
(cid:122) Observaciones:
» Se debería mantener una secuencia de
percepciones en memoria (no siempre es
posible)
» Se deberían tener criterios externos de
éxito (la medida del desempeño no es
parte de la descripción del agente)
13
Agente de búsqueda en
tablas
(cid:122) Implementa un mapa ideal de comportamiento
(cid:122) Dificultad en conseguir que el agente razone
(cid:122) Algoritmo:
función agente-de-búsqueda-en-tablas (percepción)
“return” una acción
;;;;;;;;;;;;;
percepciones
tabla
variables globales
;lista inicialmente vacía
;indexada por lista de
percepciones
añade-percepción-al-final-de-
percepciones(percepción, percepciones)
acción = busca(percepciones, tabla)
“return” acción
(cid:122) Inconvenientes:
» Tabla enorme (y difícil de generar).
» Agente sin autonomía (si el entorno
cambia, la tabla también debería hacerlo).
14
Agente reflejo simple
Un agente reflejo con
estado
(cid:122) Es imposible construir una tabla de búsqueda
para cualquier secuencia de percepciones.
(cid:122) Se mantiene un estado del mundo
(configurado por las percepciones).
(cid:122) Incorporan el uso de reglas:
» Si “coche-de-enfrente-frena” entonces “frenar”
– (resume información y especifica comportamiento)
(cid:122) Algoritmo:
función agente-reflejo-simple (percepción)
“return” una acción
;;;;; variable global
reglas
;;; se genera descripción abstracta de la percepción
estado = interpreta (percepción)
;;; selecciona regla que cumple descripción estado
regla = selecciona-regla (estado, reglas)
acción=aplica-regla(regla)
“return” acción
(cid:122) El uso de reglas ayuda en la toma de
decisiones del agente
(cid:122) Algoritmo:
funcion agente-reflejo-con-estado (percepción)
“returns” una acción
;;;variables globales
estado, reglas
;;; se actualiza la descripción interna del estado que
;;; mantiene el agente
estado = actualiza-estado (estado, percepción)
regla = selecciona-regla (estado, reglas)
acción=aplica-regla(regla)
estado = actualiza-estado (estado, acción)
“return” acción
15
16
7
8
Otros agentes
Tipos de entorno
(cid:122) Agente basado en el objetivo
» La información del objetivo es relevante
» Combinación de información sobre objetivo con
información de sus posibles acciones
– Ejemplo: En una intersección, es posible “izquierda”,
“derecha” o “recto”, pero importa el objetivo (no es
únicamente un agente reflejo).
» Búsqueda y Planificación (campos de IA).
– Caso simple: Acción implica objetivo
– Caso complejo: Varias acciones implican objetivo
(cid:122) Agentes basados en utilidad:
» Utilidad(estado)=grado de preferencia o satisfacción
(cid:122) Episódico/no-episódico
(cid:122) Accesible/no-accesible:
» ¿el agente tiene acceso al estado completo del
entorno?
– Si: no necesita mantener un estado interno del
mundo. Uso de sensores. (aspiradora)
– No: (8- puzzle)
(cid:122) Determinista/no-determinista:
» ¿el estado siguiente del entorno está
completamente determinado por el estado actual y
la cadena de acciones elegidas por el agente?
– (D: 8- puzzle; ND: control refinería)
» Episodios: procesos percepción-acción
independientes en el tiempo
– (E: robot selector de componentes; NE: ajedrez)
(cid:122) Estático/dinámico/semidinámico:
» ¿el entorno puede cambiar mientras el agente
decide?
– Semidinámico: estático + penalización por retraso en
la toma de decisión (ajedrez, análisis imágenes)
(cid:122) Discreto/continuo
» ¿número finito
Comentarios de: Introducción a la Inteligencia Artificial (0)
No hay comentarios