PDF de programación - El problema de la semántica en la inteligencia artificial

Imágen de pdf El problema de la semántica en la inteligencia artificial

El problema de la semántica en la inteligencia artificialgráfica de visualizaciones

Publicado el 6 de Julio del 2017
989 visualizaciones desde el 6 de Julio del 2017
75,2 KB
5 paginas
Creado hace 19a (28/10/2004)
más que código

por Juanjo Navarro


El problema de la semántica en la inteligencia artificial

Viernes, 20 Junio 2003

Yo no soy ningún experto en Inteligencia Artificial. "El problema de la semántica en la inteligencia
artificial" es un trabajo que hace ya años hice para una asignatura en la universidad y que he
rescatado revisando algunos cd's viejos. Lo pasé muy bien haciéndolo y lo pongo aquí por si a
alguien le interesa.

Introducción

Desde que Turing definió su modelo de computador digital (la máquina de Turing) hasta
la actualidad, la inteligencia artificial ha sido una de las constantes en la investigación
relacionada con los computadores.

De hecho, este interés por el desarrollo de la capacidad de pensamiento en las
máquinas es anterior incluso al computador digital tal y como lo definió Turing. Cuando
Charles Babbage imaginó su máquina analítica, lo que hoy en día consideramos el
primer ordenador (aunque la tecnología de su época no fue capaz de construirlo), lo
hizo no intentando desarrollar una simple máquina de calcular, sino una máquina que
realizara inferencias lógicas a partir de una serie de premisas iniciales.

Pero ¿qué es lo que hace que el estudio de la inteligencia artificial tenga tanto atractivo
para los investigadores? ¿En qué se basa la certeza por parte de algunos de que algún
día las máquinas podrán tener pensamientos, así como la seguridad de otros de que
jamás podrá ocurrir?

A estas preguntas, situadas hoy en día en el ojo del huracán de la inteligencia artificial
es a las que pretende responder este trabajo.

El parecido entre la Mente y la Máquina

Tal vez la principal razón que ha llevado desde un principio a la investigación científica
sobre inteligencia artificial es el hecho (comprobado por cualquier programador) de que
hay procesos que funcionan igual en un ordenador que en nuestra mente. Cuando
realizamos una raíz cuadrada, por ejemplo, seguimos una serie de reglas, una serie de
pasos preestablecidos que tenemos la certeza de que nos llevará hasta la solución. Un
ordenador puede ser adiestrado para que siga los mismos pasos que nosotros hasta
llegar al mismo resultado. Tan importante es el concepto de este "proceso que nos lleva
a la solución" para la inteligencia artificial, y para la ciencia informática en general, que
posee un nombre propio: Algoritmo.

Se puede definir un algoritmo como una serie de pasos que nos llevan hasta la solución
de un problema. Para que se trate realmente de un algoritmo estos pasos deben estar
perfectamente definidos y no deben dejar lugar para la iniciativa del que los sigue.

Alan Turing, 1912-1954, matemático inglés conocido por la invención de los aparatos
de computación teórica que llevan su nombre y están basados en sus ideas. Mientras
era un estudiante graduado en la universidad de Princeton en 1936, Turing publicó "On
Computable Numbers", un trabajo en el que concebía una máquina que podía moverse
de un estado a otro siguiendo un riguroso grupo de reglas. Durante la Segunda Guerra
Mundial, Turing trabajó en la oficina de asuntos exteriores inglesa, donde jugo un
importante papel en los esfuerzos por romper los códigos enemigos (fue capaz de
romper el famoso Enigma). Más tarde trabajo en el desarrollo de un computador digital,
en la teoría de la inteligencia artificial y en la aplicación de la teoría matemática a las
formas biológicas. En sus últimos años, Turing fue social y profesionalmente marginado
por atributos personales, especialmente después de su arresto por la violación de el
estatuto británico de la homosexualidad en 1952. Cuando se suicido a la edad de 41
años, no había sido enteramente reconocido por sus contribuciones científicas.

Ya que este es el método que utiliza nuestra mente para resolver muchos de los
problemas que se nos presentan, los investigadores en inteligencia artificial han
estudiado los algoritmos para saber que problemas son los que se pueden resolver
mediante este método (véase Turing) y su aplicación a los ordenadores.

Después de unas décadas la investigación en inteligencia artificial parece haberse
llegado a un punto estancado. Por un lado, los ordenadores han demostrado ser muy
buenos para determinadas tareas que a priori podrían parecer muy difíciles y exclusivas
de una mente humana. Como jugadores de ajedrez, por ejemplo, han resultado ser
unos excelentes adversarios. Pero por otro lado existen algunas facetas en las que han
conseguido avanzar bien poco.

La duda Searle

En este entorno, John Searle ha surgido planteando una profunda duda en la
inteligencia artificial.

Según Searle, los avances que hasta ahora ha habido en la inteligencia artificial no se
pueden entender realmente como tales, es decir todavía no se ha logrado construir ni
un solo ordenador que haya desarrollado la mínima actividad mental que se pueda
calificar de inteligente y, de hecho, no ha podido desarrollar ni siquiera nada que se
pueda calificar como "actividad mental".

John Searle, profesor de Filosofía en la Universidad de Berkeley, mantiene en la
actualidad la postura más brillante en contra de los abusos de la Inteligencia Artificial.
Recibio el doctorado por la Universidad de Oxford, donde fue becario Rhodes. En su
actividad como filósofo del lenguaje, Searle adoptó el punto de vista de la pragmática.

¿A qué se debe esto? ¿No le parece al doctor Searle suficientemente "inteligente" (o al
menos con un mínimo de inteligencia) un ordenador capaz de ganar a un maestro
internacional en una partida de ajedrez?

Veamos 'la sala China', un experimento que Searle propone para demostrar que los
ordenadores no están desarrollando inteligencia artificial.

La sala China

Supongamos que una persona que no sabe chino se encerrase en una habitación. En la
sala tiene una serie de símbolos chinos sobre hojas de papel en distintas cajas. A la
persona se le escriben una serie de preguntas escritas en chino que se le hacen llegar a
través de una ventana. Nuestra intención es, naturalmente, que esta persona responda
a nuestras preguntas escribiéndonos una respuesta en perfecto chino. ¿Pero como? Si
esa persona no sabe chino lo único que podremos obtener de ella será una serie de
símbolos sin el menor sentido. Bueno, habíamos olvidado un elemento más que esta
persona tiene a mano: Un libro de instrucciones. En éste se le especifica (en castellano
naturalmente) una serie de reglas que le permiten combinar símbolos en respuesta a
otra cadena de símbolos que se especifique como entrada (la pregunta). Las reglas son
del tipo "ante un símbolo de la primera caja con un símbolo de la segunda respóndase
con la unión de tres símbolos de la cuarta, sexta y segunda caja". Es muy importante
resaltar que en las instrucciones no se hace ninguna mención al significado de los
símbolos sino solo a la forma de combinarlos. Tampoco se hace ninguna restricción en
cuanto a la longitud de las reglas ni del libro de reglas. El libro podría muy bien ser una
enciclopedia de 2000 tomos y cada regla ocupar medio tomo, y no por ello cambiaría el
planteamiento del problema. Finalmente supongamos que el libro de reglas está tan
bien hecho que las respuestas resultan ser perfectas en chino.

La pregunta es: ¿La persona 'sabe' chino?

Antes de responder a esta pregunta veamos las similitudes entre este experimento
planteado por Searle y su desarrollo el el caso de la propia inteligencia artificial.

En primer lugar, es evidente que la persona a la cual se introduce en la sala es el
ordenador. Los símbolos chinos que manipula son los símbolos de nuestro propio
lenguaje cuando son manipulados por el ordenador. El objetivo sería pues, en el campo
de la inteligencia artificial, que el ordenador respondiese a nuestras preguntas con una
perfecta lógica que demuestre la existencia de una inteligencia (del mismo modo que
antes el objetivo era que la persona respondiese en tan perfecto chino que demostrase
el conocimiento del mismo). Un último elemento nos falta en esta interpretación del
experimento: El manual. El manual, la parte más importante del experimento anterior,
es en esta adaptación el algoritmo que seguirá el ordenador, el programa que debemos
introducirle, para que acabe con éxito la labor. Quizá alguien podría argumentar que
este programa sería tan complejo que se debe dudar seriamente de que sea factible.
Aunque esa es una apreciación interesante hay que destacar que Searle no ataca a la
inteligencia artificial por ese lado, en su argumentación no duda de que se pueda lograr
tan perfecto programa, simplemente no se lo plantea.

Una vez localizados todos los elementos del símil volvamos a plantear la pregunta: ¿La
persona sabe chino? ¿El ordenador estaría desarrollando inteligencia?

La respuesta de Searle es, evidentemente, no.

Su argumentación se basa en la evidencia de que no es lo mismo la realidad que la
simulación de ella. Si una compañía aérea tiene un programa que les permite simular
como responderían sus aviones en situaciones adversas, nadie duda de la utilidad de tal
programa para mejorar la seguridad de los vuelos, pero desde luego nadie piensa que
sea la realidad misma. Nadie piensa que cuando un accidente tiene lugar en la
simulación realmente se este destruyendo ningún avión. Del mismo modo, por el hecho
de que el ordenador sea capaz de simular con toda minuciosidad el comportamiento
característico de una inteligencia, no debemos pensar que realmente exista dicha
inteligencia.

Ante esto muchos han argumentado que, por lo que hasta ahora sabemos, el cerebro
funciona también de esa manera. Es decir, el cerebro humano sigue unos ciertos
algoritmos con los que trabaja. Por supuesto, la complejidad del cerebro es de una
magnitud mucho mayor con "tecnologías" que no podemos ni imaginar y otras de las
que hoy en día sólo disponemos burdas aproximaciones. Procesamiento paralelo, redes

neuronales y otros términ
  • Links de descarga
http://lwp-l.com/pdf4952

Comentarios de: El problema de la semántica en la inteligencia artificial (0)


No hay comentarios
 

Comentar...

Nombre
Correo (no se visualiza en la web)
Valoración
Comentarios...
CerrarCerrar
CerrarCerrar
Cerrar

Tienes que ser un usuario registrado para poder insertar imágenes, archivos y/o videos.

Puedes registrarte o validarte desde aquí.

Codigo
Negrita
Subrayado
Tachado
Cursiva
Insertar enlace
Imagen externa
Emoticon
Tabular
Centrar
Titulo
Linea
Disminuir
Aumentar
Vista preliminar
sonreir
dientes
lengua
guiño
enfadado
confundido
llorar
avergonzado
sorprendido
triste
sol
estrella
jarra
camara
taza de cafe
email
beso
bombilla
amor
mal
bien
Es necesario revisar y aceptar las políticas de privacidad