lateral


octubre 2001
Nº 94

home

 

"Los robots serán muy diferentes"
Luc Steels

Entrevista de Óscar Vilarroya

Luc Steels adquirió fama recientemente por haber participado en la creación de "Aibo", un robot perrito que comercializó la compañía Sony. Sin embargo, entre la comunidad de científicos cognitivos Steels es conocido por ser uno de los investigadores que está más cerca de responder a algunas preguntas de la ciencia cognitiva y la lingüística: ¿Qué es un lenguaje? ¿Cómo adquieren las palabras su significado? ¿Cuáles son las capacidades cognitivas imprescindibles para que una especie adquiera la capacidad lingüística? Steels ha conseguido que un grupo de robots autónomos se puedan comunicar entre ellos. Nos concedió la siguiente entrevista en Barcelona, donde fue invitado a dar una conferencia en el Museo de la Ciencia en el marco del congreso de la Sociedad Americana para el Estudio de la Consciencia (ASSC).

 

Usted ha creado artefactos que perciben el mundo, categorizan sus objetos, los nombran, y que son capaces de crear un lenguaje que emplean como un medio de comunicación. ¿Está seguro de que lo que hablan sus artefactos es un lenguaje parecido al humano?

No pretendo que los artefactos con los que trabajamos creen un lenguaje o un sistema de comunicación idéntico al lenguaje humano. El lenguaje humano es muy rico: expresa emociones, poesía, etc. Lo que hacemos es un experimento que no intenta reproducir completamente el lenguaje humano. Un buen símil de lo que hacemos sería el de la aeronáutica y el volar. Cuando los ingenieros aeronáuticos construyen un avión no simulan todas las características de los pájaros que vuelan. No ponen plumas sobre los aviones, ni quieren que el avión mueva las alas. Es volar lo que les preocupa. De manera parecida, en nuestro laboratorio intentamos descubrir cuáles son las propiedades esenciales del lenguaje.

 

¿Y cuáles son estas propiedades básicas que debe tener el lenguaje?

Por lo que hemos visto, el lenguaje tiene que estar enraizado en el mundo, y no consistir sólo en palabras. En muchos programas de ordenador hay palabras, pero no están relacionadas con el mundo, con la realidad. El ingeniero computacional pone en los ordenadores la definición de la palabra, y ya está. El ordenador procesa esta información para, por ejemplo, una traducción, pero no tiene la comprensión de la palabra. En este sentido, el lenguaje que emerge en mis experimentos está más cercano al lenguaje humano.

¿En qué sentido?

Por ejemplo, un aspecto muy importante del lenguaje humano es que no está nunca acabado. Es un sistema adaptativo en constante evolución. Nuevas situaciones dan lugar a nuevas palabras y los significados cambian. Pues bien, en nuestro laboratorio hemos reproducido esta propiedad del lenguaje.

 

En varios de sus escritos usted insiste en que el lenguaje no es algo dado y estático, producto de una capacidad cognitiva preestablecida, sino que es en parte importante una convención, es decir, el producto de un acuerdo social entre individuos.

Pongamos la palabra "rojo". Si yo digo que un lápiz es "rojo", necesito haber categorizado los colores y realizar distinciones entre diferentes tipos de colores. Por lo tanto, el lenguaje debe expresar este tipo de distinciones. Y para explicar los orígenes del lenguaje debemos entender de dónde vienen tales categorizaciones. Y tales categorizaciones vienen de la manera en que percibimos el mundo, pero también de cómo nos comunicamos con los demás miembros de nuestra especie. Por ejemplo, si yo digo "déme el lápiz rojo", y luego usted me da el lápiz naranja, entonces yo diré "oh, no, esto es naranja, y no rojo", y en el mejor de los casos llegaremos a ponernos de acuerdo sobre qué es naranja y qué es rojo, y de ahí saldrá la definición de "rojo" y de "naranja". Es a través de esta interacción continua con los demás que llegamos a establecer nuestras categorizaciones y a definir el significado de las palabras. Nada de esto es innato, sino el resultado de un proceso de negociación social. Reproducir este proceso es uno de nuestros principales objetivos experimentales.

 

Eso significaría que un sistema no precisa disponer de un "módulo", de un subsistema, genéticamente programado para procesar y producir reglas lingüísticas específicamente programadas. ¿Cree que ha demostrado que la tesis innatista de Chomsky sobre el lenguaje está equivocada?

Sí, así lo creo. Es verdad que mi programa de investigación todavía no ha sido completado, pero al menos en las áreas en las que hemos trabajado hemos demostrado que muchas de las cosas que la gente necesita para comunicarse no son necesariamente innatas.

 

Entonces, ¿cuáles son las capacidades básicas, innatas, que un sistema debe tener para crear un lenguaje con las propiedades que han identificado?

Todavía no se conocen completamente, pero lo que es seguro es que son muchas, no sólo una. Para hablar, necesitamos mover la boca, y de manera muy rápida. Necesitamos percibir sonidos y realizar distinciones muy sutiles. Relacionar cosas que oímos con cosas que producimos oralmente. Hay muchas habilidades, pero ninguna es específicamente lingüística. Mi posición es que no sólo necesitamos una capacidad, necesitamos muchas, pero no todas ellas son originalmente lingüísticas. Por ejemplo, la lengua, las cuerdas vocales o los labios, no aparecieron en el ser humano para crear un lenguaje, sino para morder y tragar, pero posteriormente se adaptaron al lenguaje. Lo mismo ocurre con la memoria. Necesitamos memoria asociativa para encontrar alimentos y recordarlos, pero también para asociar significados con palabras. Otra de las capacidades lingüísticas que necesitamos es la capacidad para identificar secuencias y jerarquías. Pues bien, incluso los pájaros reconocen la jerarquía en las canciones. En resumen, todas esta habilidades se necesitan conjuntamente para nuestras capacidades lingüísticas. Podríamos decir que existe un umbral de capacidades que permite la aparición de la capacidad lingüística.

 

¿En qué medida sus robots se diferencian de los robots a los que la inteligencia artificial, aunque fuera sólo en películas de ciencia ficción, nos tenía acostumbrados hasta el momento?

Hay muchas diferencias. Durante mucho tiempo, la investigación en robótica se dirigía fundamentalmente a los procesos de fabricación industrial o a ciertos usos domésticos, como la limpieza. Hoy en día tenemos robots en muchas fábricas que son muy sofisticados. Sin embargo, no dejan de ser máquinas y la diferencia con una máquina de lavar no es tan grande. No son robots autónomos, inteligentes. Por ello, algunos investigadores decidieron olvidarse de los "robots útiles", y centrarse en robots que tuvieran procesos cognitivos y emocionales por sí mismos y que pudieran despertar el interés de los seres humanos simplemente por su comportamiento "inútil". Y ahí apareció el robot Aibo de Sony que tanto fascina a la gente, y que ha llevado a la investigación en robótica a un campo completamente distinto del que se había llevado hasta el momento.

 

¿Pero son o no son inteligentes estos nuevos robots?

La cuestión de la inteligencia es muy difícil, sobre todo porque nuestro concepto de inteligencia cambia con el tiempo. En los años setenta había gente que decía que un ordenador no podría nunca batir al campeón mundial de ajedrez. Veinte años después Deep Blue ganó al campeón del mundo. Entonces otros dijeron que a pesar de ello, Deep Blue no era inteligente porque había sido programado. Parece que si un ordenador puede hacer una actividad que considerábamos inteligente, entonces eso deja de ser inteligente. Otros pensamos de manera distinta. Por ello creo que la noción de inteligencia no es muy útil, porque no nos ponemos de acuerdo sobre ella.

 

¿Usted cree que si sus robots ya hablan y se comunican, y en cierto modo piensan, pueden llegar a ser conscientes de sí mismos?

Esta cuestión es muy profunda. Podemos construir un robot que realiza procesos de percepción visual, de coordinación motora e incluso de categorización muy sofisticados. El resultado es un robot con una gran capacidad cognitiva. La cuestión es: si seguimos mejorando estos robots con estas capacidades, ¿acabarán por tener consciencia? Yo creo que no. Algunos dicen que no hay nada más que estas capacidades cognitivas para explicar la consciencia, y que si añadimos cada vez más complejidad llegará un momento que los robots parecerán conscientes. Esto puede ser verdad, pero... La consciencia parece un misterio. Esta sensación que tenemos por la mañana cuando nos despertamos y parece que una bombilla se encienda es realmente curiosa.

Si caminanos de manera automática y de golpe tropezamos, a partir de ese momento somos conscientes de cómo caminamos, mientras que antes no. Pasamos de un modo automático de caminar a tener la experiencia consciente de cómo caminamos. Los robots pueden caminar y tropezar, fijarse en lo que ha pasado y levantarse, pero no creo que sean conscientes. La consciencia es ciertamente un puzzle. Es un misterio que necesita explicación.

 

¿Un misterio que tienen que resolver los filósofos?

Los filósofos no resuelven nada. Hablan, dialogan, presentan sus opiniones pero no hay nada peor para un filósofo que un problema resuelto, puesto que no puede seguir su juego de discusión y argumentación. La respuesta tiene que darla la ciencia.