La inteligencia artificial, un tema real

Inteligencia artificial, tema real

Caja inteligente o niño de verdad?

Por Neil Osterweil De los archivos del médico

24 de septiembre de 2001 --Si creas una máquina capaz de razonar de forma independiente, ¿has creado vida? Tienes una responsabilidad con esa vida o simplemente has montado otra pieza de hardware inteligente que quedará obsoleta por la siguiente novedad?

En la película de Steven Spielberg y Stanley Kubrick "AI" (como inteligencia artificial), un fabricante de robots crea a David, un niño sintético que está programado para amar. Su dueño humano pone en marcha un programa que fija de forma irreversible el afecto del ciberniño hacia su dueño.

Pero al diseñar y construir a David, el fabricante de robots ha creado otro monstruo de Frankenstein. El "mecha" (abreviatura de "mecánico"), aparentemente consciente de sí mismo, ansía el amor de su "madre" humana y anhela, como Pinocho, convertirse en un niño "de verdad".

La película plantea cuestiones filosóficas intrigantes y preocupantes sobre lo que significa ser humano, tener un sentido de sí mismo y ser un ser único e independiente, digno de respeto y derechos ante la ley.

Cuando David, actuando para salvarse de las burlas y amenazas de los niños de carne y hueso, hiere accidentalmente al hijo de sus dueños, es abandonado en el bosque y dejado a su suerte. Se encuentra en compañía de unos extraños robots rotos y a medio formar que se mantienen "vivos" rebuscando piezas de recambio en un vertedero.

Pero el hecho de que David llore y suplique que se quede con la mujer a la que llama mamá, y huya cuando es localizado por los cazarrecompensas, ¿son sus instintos de terror y autoconservación genuinos, o son simplemente una brillante simulación mecánica y electrónica de cómo respondería un niño de verdad? ¿Importa?

¿Pienso, luego existo?

El doctor Nick Bostrom, profesor de filosofía de la Universidad de Yale en New Haven (Connecticut), dice que sí importa.

"Creo que en cuanto un ente se vuelve sensible -capaz de experimentar dolor o placer- adquiere algún tipo de estatus moral, sólo por el hecho de ser capaz de sufrir", dice Bostrom a doctor. "Aunque los animales no tienen derechos humanos -y la mayoría de nosotros pensamos que es aceptable utilizarlos para la investigación médica-, sigue habiendo límites. No permitimos que la gente torture a los animales sin ninguna razón".

Frank Sudia, JD, tiene un criterio ligeramente diferente. Dice que la capacidad de tomar una o varias decisiones entre múltiples opciones y de actuar en consecuencia, y la capacidad de decidir cuál de las miles de posibilidades es la mejor en una situación imprevista, puede ser una definición básica y operativa de lo que significa "ser."

"Si la máquina tiene el poder de autoproducirse -si puede buscar sus propios objetivos o incluso elegir sus propios objetivos de alguna lista de objetivos que lee en el periódico [y decide]: 'Oh, quiero parecerme a Madonna'-, creo que esta capacidad de elegir, guiada como sea, es indistinguible de lo que consideramos nuestro sentido del yo", dice a doctor.

Sudia es un consultor de seguridad para el comercio electrónico con sede en San Francisco y se autodefine como ético, científico y pensador de sistemas inteligentes. Compara el papel del diseñador de sistemas de inteligencia artificial o del fabricante de robots con el de los padres de un adolescente.

"El adolescente empieza a tener una buena variedad de respuestas [pero] no un gran sistema de contención", dice. "Intentas formar su carácter de manera que tome decisiones razonables que sean socialmente beneficiosas para él. Así que juegas a ser Dios en gran medida con tus hijos. Olvídate de formarlos como Mozart: intentas formarlos como algo que pueda sobrevivir consiguiendo que tengan un yo."

Yo tomo decisiones, ¿por lo tanto soy?

La capacidad de tomar decisiones por sí sola no sugiere autonomía, señala Bostrom. El ordenador Deep Blue derrotó al gran maestro del ajedrez Gary Kasparov. Puede elegir entre millones de movimientos de ajedrez posibles en una situación determinada, pero basta con que intente enviarlo al otro lado de la calle a comprar un cuarto de leche.

"Para conceder autonomía a un humano, necesitamos bastante de ellos", dice Bostrom. "Los niños no tienen toda la autonomía, aunque pueden hacer algo más que elegir jugadas de ajedrez o tomar decisiones sencillas como esa. Requieren una concepción de su bienestar y un plan de vida y ese tipo de cosas. No creo que ninguna máquina que exista hoy en la Tierra tenga ni sintiencia ni autonomía."

Para que podamos decir que una máquina es consciente de sí misma y, por tanto, es un ser consciente, primero debemos saber qué es ser consciente. Al menos una mente humana sostiene que cuando se trata de la naturaleza de la conciencia, no tenemos ni idea.

La doctora Margaret Boden, catedrática de filosofía y psicología de la Universidad de Sussex (Inglaterra), dice a la doctora que es muy posible crear un robot que parezca un ser autónomo y consciente de sí mismo.

"En principio podría haber una simulación por ordenador de una criatura así, porque todo lo que hace la mente humana depende del cerebro humano", dice. "Pero si me preguntas si ese robot sería consciente, te diría que ni siquiera sabemos lo que es decir que somos conscientes".

Incluso si suponemos, como hacen Spielberg y Kubrick, que es posible crear un robot capaz de actuar en su propio interés y de sentir el dolor, la pérdida y la soledad, ¿lo trataremos como uno de nosotros o como una tostadora inteligente más?

Compro comestibles, ¿por lo tanto soy?

Si podemos ser manipulados emocionalmente por una película -otra forma de vida simulada- o si disfrutamos de la versión de Las Vegas de París, entonces sin duda podríamos vernos afectados por el llanto de un bebé robot o las súplicas de un niño artificial como David en AI. Y es esa interfaz -la caja que contiene el hardware (un cerebro robótico) y la forma en que el software interactúa con el usuario- lo que puede marcar la diferencia.

"Si una IA llegara a parecerse a un perro, tal vez tendría los derechos de un perro. ... Si llegara a parecerse a Einstein, tal vez tendría los derechos de un Einstein". Si llegara a parecerse a Einstein, tal vez tendría los derechos de un Einstein", dice Sudia.

Desde luego, es posible diseñar un sistema inteligente que pueda, por ejemplo, hacer la compra en el supermercado y pagar en la caja registradora por nosotros. Para ello, no tiene que parecerse a un humano, dice el doctor Ian Horswill, profesor adjunto de informática en la Universidad Northwestern de Evanston (Illinois).

"Se pueden tener sistemas que a todos los efectos son inteligentes -al menos mucho más inteligentes que los lápices o los procesadores de texto-, pero no tienen las... características de la existencia humana", dice Horswill al doctor.

No hay ninguna razón, por ejemplo, para que un robot de compras tenga que parecerse a tu tío Chuck. Podría ser una caja registradora rodante: una simple caja con una pantalla, brazos de agarre para coger cajas de copos de maíz de la estantería y un cajón para guardar el cambio. Pero seguiría siendo un "ello" y no un "él" o un "ella", sostiene Horswill.

Se podría construir una máquina con un cuerpo similar al del Comandante Data y dotarla de emociones, y luego quitarle el cerebro y ponerla en un robot de cubo de basura con un cajón para el cambio y permitirle sólo comunicarse en código Morse", dice, "Mi opinión es que la mayoría de la gente estaría mucho más dispuesta a desconectar al robot de cubo de basura que al Comandante Data".

Hot