NUEVO ARGUMENTO CONTRA LA IA FUERTE
Publicado por Laureano Luna Cabañero (2 intervenciones) el 13/06/2006 17:43:16
He enviado el siguiente argumento cuasi-gödeliano contra la Inteligencia Artificial en sentido fuerte a varios foros de lógica y matemáticas.
Yo diría que hasta ahora nadie ha conseguido encontrarle un error. Lo propongo aquí a ver qué os parece.
1. Supuesto 1: existe un robot RH que reproduce la capacidad intelectual del ser humano H.
2. Supuesto 2: H es capaz de seguir correctamente este razonamiento al menos hasta el asterisco.
3. Sea la siguiente expresión:
(G) RH no puede tener a esta expresión por verdadera
donde ”RH” está por una descripción completa del algoritmo que RH realiza.
4. Supuesto 3: (G) tiene un valor de verdad (y, por tanto, no es paradójica).
5. Si H y RH creyeran (G) la harían falsa. H y RH saben esto (supuestos 1 y 2); luego no pueden creer (G). Luego (G) es verdadera *.
6. Pero H y RH son capaces de seguir el razonamiento anterior (supuestos 1 y 2). Entonces H y RH creerán (G). Luego (G) no es verdadera. Téngase en cuenta que la posibilidad de que carezca de valor de verdad está descartada por el supuesto 3.
7. Esta contradicción implica que si H y RH son capaces de seguir el razonamiento hasta el asterisco (supuestos 1 y 2), entonces hay que eliminar el supuesto 3.
8. Ahora bien, si efectivamente RH es un robot (supuesto 1), entonces (G) tiene que tener un valor de verdad, porque se refiere a una pura situación física, a saber, si el algoritmo de RH genera o no (G), y esta situación o bien es el caso o bien no lo es; considérese que en (G) "RH" está por la descripción completa de un algoritmo; esto hace imposible que (G) carezca de valor de verdad si RH existe.
9. Luego no podemos eliminar el supuesto 3 sin eliminar también el supuesto 1.
10. Entonces, para cualquier humano capaz de seguir el razonamiento hasta el asterisco, hay que eliminar el supuesto 1.
11. Conclusión: no existe un robot intelectualmente equivalente a un ser humano capaz de seguir el razonamiento hasta el asterisco.
Parece que (G) tiene que ser paradójica y carecer de valor de verdad, de modo que cuando tratamos de diagonalizar al estilo de Gödel sobre un ser humano capaz de seguir nuestro intento de diagonalización generamos una contradicción y no un enunciado verdadero. Pero, como esto no puede ser así si ese ser humano es equivalente a un algoritmo, tal equivalencia no puede darse.
Yo diría que hasta ahora nadie ha conseguido encontrarle un error. Lo propongo aquí a ver qué os parece.
1. Supuesto 1: existe un robot RH que reproduce la capacidad intelectual del ser humano H.
2. Supuesto 2: H es capaz de seguir correctamente este razonamiento al menos hasta el asterisco.
3. Sea la siguiente expresión:
(G) RH no puede tener a esta expresión por verdadera
donde ”RH” está por una descripción completa del algoritmo que RH realiza.
4. Supuesto 3: (G) tiene un valor de verdad (y, por tanto, no es paradójica).
5. Si H y RH creyeran (G) la harían falsa. H y RH saben esto (supuestos 1 y 2); luego no pueden creer (G). Luego (G) es verdadera *.
6. Pero H y RH son capaces de seguir el razonamiento anterior (supuestos 1 y 2). Entonces H y RH creerán (G). Luego (G) no es verdadera. Téngase en cuenta que la posibilidad de que carezca de valor de verdad está descartada por el supuesto 3.
7. Esta contradicción implica que si H y RH son capaces de seguir el razonamiento hasta el asterisco (supuestos 1 y 2), entonces hay que eliminar el supuesto 3.
8. Ahora bien, si efectivamente RH es un robot (supuesto 1), entonces (G) tiene que tener un valor de verdad, porque se refiere a una pura situación física, a saber, si el algoritmo de RH genera o no (G), y esta situación o bien es el caso o bien no lo es; considérese que en (G) "RH" está por la descripción completa de un algoritmo; esto hace imposible que (G) carezca de valor de verdad si RH existe.
9. Luego no podemos eliminar el supuesto 3 sin eliminar también el supuesto 1.
10. Entonces, para cualquier humano capaz de seguir el razonamiento hasta el asterisco, hay que eliminar el supuesto 1.
11. Conclusión: no existe un robot intelectualmente equivalente a un ser humano capaz de seguir el razonamiento hasta el asterisco.
Parece que (G) tiene que ser paradójica y carecer de valor de verdad, de modo que cuando tratamos de diagonalizar al estilo de Gödel sobre un ser humano capaz de seguir nuestro intento de diagonalización generamos una contradicción y no un enunciado verdadero. Pero, como esto no puede ser así si ese ser humano es equivalente a un algoritmo, tal equivalencia no puede darse.
Valora esta pregunta
0