Sincronía Otoño 2003


INTELIGENCIA Y LIBERTAD

Por Werner Deichmann Juan

Warszawa, Polonia

wdeichmann@wp.pl


Introducción

Existen dos escuelas en el estudio de la conciencia que polarizan gran parte del debate sobre su naturaleza en círculos científicos y filosóficos. Una de las posturas defiende que la mente humana es teóricamente reproducible por medios artificiales, comparando al cerebro con el hardware de un ordenador y a la mente con el software. La otra postura defiende que cualquier intento de reproducir la mente humana produciría solo una copia totalmente inconsciente de sus pensamientos.

Lo que postularé en este artículo es dotando de libre albedrío a un posible androide este sería capaz de tomar decisiones considerando la información que contuviera y almacenara y que, el hecho de decidir en base a esta, le conferiría un significado. El contenido semántico de la información supondría que el androide es consciente de lo que piensa y, por tanto sería, al menos y en cuanto a su mente, igual a nosotros.

 

Cuando en la primavera de 1997 la computadora de IBM Deep Blue ganó una segunda partida de ajedrez al campeón mundial Gary Kasparov, pareció quedar en evidencia la superioridad de la inteligencia humana frente a la de la máquina creada por el hombre.

Lo que si quedó claro era que una computadora podía realizar complicados cálculos matemáticos, como los que hacemos al jugar al ajedrez, mucho mejor y más rápido que cualquier ser humano.

Intuitivamente, sin embargo, algo nos dice que ni Deep Blue ni cualquier otra supercomputadora, robot o androide que llegue a crearse será nunca realmente inteligente. Lo que nos lleva a creer en nuestra superioridad innata es, por una parte que nosotros somos los que inventamos las máquinas y, por otra que, incluso la mejor computadora carece de creatividad, por lo que no pueden crear otras máquinas ni mucho menos a nosotros.

Sin embargo uno puede aducir que si las computadoras no son capaces de ser creativas o tan inteligentes como nosotros es simplemente porque su evolución solo está en sus comienzos y con tiempo podrían llegar a superarnos.

Se presentan entonces dos posturas frente al problema de la inteligencia artificial en las cuales la distinción entre natural y artificial parece ser la clave que decide si la inteligencia es real (Inteligencia Artificial Fuerte) o simulada (Inteligencia Artificial Débil).

Como paradigmáticas de ambas consideraré la máquina universal de Alan Turing y la caja china de John Searle.

La máquina universal de Turing sería una computadora perfecta, capaz de realizar cualquier cálculo matemático lógicamente posible en un tiempo infinitamente pequeño. Según Turing, si aceptamos que la mente humana tiene su origen en el cerebro y es producida por procesos lógicos y cálculos matemáticos, como un software instalado en la materia gris, la computadora perfecta sería capaz de imitar a la perfección el comportamiento de una persona y, según Turing, si no somos capaces de distinguir la mente humana de la simulación de una computadora, es porque no hay diferencia. Como consecuencia la máquina universal podría ser tan inteligente, por lo menos, como un ser humano.

Turing imaginó una serie de testes para verificar la falta de diferencias entre un humano y su homólogo androide. Una de ellas, el test del colega de siempre, sería sustituir a un colega nuestro de toda la vida por un androide programado para comportarse de la misma manera que nuestro colega. Otro test, variante del primero, es construir un androide de características humanas que se convierta en nuestro colega y pase un tiempo indeterminado, días, meses anos, con nosotros. En el primer test el resultado es positivo si no podemos diferenciar al androide de nuestro colega, en el segundo si no nos damos cuenta de que no es humano.

En el caso de que los testes fueran positivos deberíamos considerar que si estamos dispuestos a atribuir una mente a una persona por la información que obtenemos al observarla, si la información que obtenemos al observar a un androide nos indica que tiene una mente no tenemos ninguna razón para pensar lo contrario.

Por otro lado, Searle nos propone imaginar que una persona con conocimientos nulos de chino es entrenada para reconocer ciertas secuencias de caracteres en esa lengua y, según las que recibiera, entregar otras. La persona trabajaría dentro de una caja con dos ranuras y esperaría a recibir tiras de papel con mensajes en chino para, según las secuencias de caracteres que reconociera entregar otras por la otra ranura. Así, un interlocutor chino, que no supiera nada sobre el funcionamiento de la caja, podría creer que la caja entiende algo de chino. Si a la persona de dentro se le entrenara para reconocer una gran cantidad de secuencias de caracteres el interlocutor podría llegar a mantener una comunicación aparentemente inteligente.

La diferencia de la caja china con la máquina universal de Turing radica en que, como Searle explica, los mensajes introducidos y recibidos por el interlocutor tienen una estructura sintáctica y un contenido semántico, para el hombre de dentro no significa nada, es decir, solo tienen contenido sintáctico. Según Searle el androide imaginado por Turing sería solo una súper complicada caja china, capaz de procesar datos y producir respuestas coherentes pero sin saber lo que hace. Searle afirma que la inteligencia artificial sería solo una imitación de la verdadera inteligencia.

Los seguidores de la hipótesis de Turing afirman, a su vez, que el contenido semántico de los procesos o cálculos que producen el comportamiento humanoide no tienen importancia alguna, solo en resultado, para ellos la inteligencia artificial puede, no solo imitar sino a ser igual a la natural.

La solución que propongo a este dilema está basada en la importancia de la libertad como:

A. Capacidad de elegir entre varias opciones según un criterio propio

B. Iniciativa propia para tomar elecciones.

Los seres vivos más simples, como bacterias o protozoos tienen codificado en su ADN las posibles respuestas ante diferentes contingencias ambientales con las que se pueden encontrar. A sus reacciones no se las puede aducir iniciativa propia, son simples respuestas automáticas.

Con la aparición de sistemas nerviosos los animales que los poseen empiezan a aprender de su entorno y a elegir, según su experiencia, la mejor manera de reaccionar a una contingencia dada. En este punto, podemos decir que el animal, como individuo de su especie, tiene un cierto grado de libertad.

A medida que el nivel de inteligencia aumenta en la escala evolutiva, aumenta también la capacidad de aprendizaje y de elección entre diferentes posibilidades de reacción a una contingencia, llegando a la previsión de contingencias e hipótesis sobre sus posibles soluciones. De esta forma con el nivel de inteligencia aumenta el grado de libertad.

Al hablar de inteligencia artificial, lo que cabe preguntarse es, si un androide, hecho para reaccionar ante bits de información introducidos en el, por voluntad ajena, podría pensar e incluso si, en el caso de comportarse como si lo hiciera, sería consciente de sus pensamientos.

Aunque este androide, en lo que se refiere al significado de la información que recibe, procesa y emite sería un sistema abierto. El androide solo actuaría obedeciendo unas órdenes dadas o programadas por un experto humano, de una forma automática, produciendo un comportamiento o información que solo tendría contenido semántico para un observador humano.

Pero, y si se hiciera un androide que fuera, semánticamente, no un sistema abierto, sino parcialmente cerrado.

De hecho es algo que se está haciendo hoy en día. Una forma en que se hace es programando la capacidad de aprender, como lo hacía Deep-Blue de los maestros de ajedrez, hasta resultar invencible por estos. Otra es darles la capacidad de reaccionar sin esperar instrucciones, como lo hacen robots como el Pathfinder o Red Rover enviados a Marte. Si hiciéramos un robot que combinara estas dos capacidades, algo ya posible, y además lo programáramos para modificar sus respuestas ante diferentes contingencias a medida que aprende, lo que tendríamos sería muy diferente a una caja china.

Para este modelo de robot la información recibida sería almacenada después de un análisis que establecería su área de actividad y grado de utilidad, le daría una prioridad en la memoria según la cual la información menos útil permanecería menos tiempo en el cerebro y la más útil se asociaría con un número mayor de distintas posibles contingencias en las que se podría usar. Esta información, tendría entonces un significado para el androide, en tanto en cuanto que, no su estructura sintáctica, sino el contenido semántico de esta, sería lo que analizaría para establecer su importancia y relaciones con la información previamente almacenada.

Si el mencionado androide contuviera como cerebro una máquina universal de Turing, podría ser perfectamente indistinguible de un humano y, a efectos de su mente, igual o superior a nosotros.

Uno de los factores que limitaría la inteligencia del robot, su capacidad de ser creativo y de ser consciente sería la libertad que le otorgáramos. Aquella información que no fuera libre de recibir, procesar y/o producir sería información sin contenido semántico, por lo tanto no sería consciente de ella.

Podemos comparar esto último con nosotros los humanos. Hay una gran cantidad de procesos neurológicos, sin mencionar los fisiológicos sobre los cuales no existe posibilidad alguna de control voluntario, todos ellos se producen de manera automática e inconsciente, como los reflejos, el procesado de la información recibida por los sentidos, el sueno, etc. Algunos, como la respiración pueden ser controlados si uno se concentra en ellos. Hay incluso áreas de nuestra vida psicológica que permanecen ocultas a nosotros la mayor parte del tiempo, áreas que conforman el inconsciente y que, como la respiración, solo pueden ser controlados después de un costoso proceso de introspección, proceso que puede requerir la ayuda de un psicólogo. Sin embargo, de los aspectos más profundamente automáticos como son los primeros de los que he hablado, ni aún, siendo conscientes de ellos a través del estudio, es posible controlarlos.

 

Bibliografía

Harnad, S. ( 1989) Minds, Machines and Searle. Journal of Theoretical and Experimental Artificial Intelligence 1: 5-25.

Searle, John. 1980a. "Minds, Brains, and Programs." Behavioral and Brain Sciences 3, 417-424.

Searle, John. 1990. "Is the Brain's Mind a Computer Program?" Scientific American 262: 26-31

Turing, A.M.(1950) 'Computing Machinery and Intelligence', Mind, vol.LIX, No. 236. pp.433-460


Regresar Sincronía Otonño 2003

Regresar Sincronía Pagina Principal