Revista de Divulgación Científico-Tecnológica del Gobierno del Estado de Morelos

Una historia sobre robótica, inteligencia artificial y filosofía.

Archivo: Ciencias Computacionales
Dr. Bruno Lara Guzmán / Esta dirección de correo electrónico está protegida contra spambots. Usted necesita tener Javascript activado para poder verla.
Facultad de Ciencias de la Universidad Autónoma del Estado de Morelos
Mtro. Dairon Rodriguez Ramírez / Esta dirección de correo electrónico está protegida contra spambots. Usted necesita tener Javascript activado para poder verla.
Facultad de Ciencias de la Universidad Autónoma del Estado de Morelos

La filosofía constituye la primera manifestación sistemática de nuestra curiosidad por entender el mundo que nos rodea. En la antigua Grecia, el mito y la superstición cedieron su lugar a variadas cosmologías que daban cuenta del mundo a partir de ciertos principios fundamentales. Sobre algunos de estos principios pronto se erigieron los pilares culturales de occidente y por supuesto de las diversas disciplinas científicas que hoy en día conocemos. Pero si bien la filosofía no ha dejado de ejercer hasta nuestros días su influjo sobre las ciencias naturales y exactas, seguramente es en el campo de la Inteligencia Artificial (IA) y la robótica cognitiva donde esta relación indisoluble se aprecia con mayor claridad.
Así, durante los primeros años de vida de la IA, los investigadores buscaron desarrollar computadoras inteligentes bajo ciertos presupuestos filosóficos. En este sentido, el filósofo estadounidense Hurbert Dreyfus nos advierte que durante esta primera etapa, estos presupuestos pronto llegaron a convertirse en el programa de investigación que articuló y orientó gran parte del trabajo realizado por computólogos e ingenieros de todo el mundo hasta bien entrada la década de los 90 del siglo XX.
         Entre estos presupuestos, Dreyfus destaca la idea que concebía el pensamiento como una clase particular de operaciones, esto es, aquellas operaciones que son realizadas por nuestra mente. Autores como Hobbes o Leibniz habían afirmado en su momento que toda la actividad de nuestra mente -razonar, planificar etc.- se podía describir en términos de un conjunto finito y ordenado de operaciones lógicas sobre ciertos elementos. Esta idea sobre la naturaleza de la mente humana implicaba que el éxito de cualquier intento por replicar la inteligencia humana en computadoras radicaría en conseguir que ellas realizasen el mismo tipo de operaciones. Las primeras tendencias de la IA se basaron en tratar de desarrollar los programas apropiados que llevaran a cabo dichas operaciones en maquinas.
Ahora bien, para Dreyfus el segundo presupuesto que permitió dar forma definitiva a la IA fue enunciado por el filosofo francés René Descartes. De acuerdo con este autor, todos los contenidos de nuestra mente tienen carácter representacional. Esto significa, entre otras cosas, que cuando pensamos, razonamos o planificamos lo hacemos tomando en cuenta solamente nuestras ideas o creencias sobre el mundo que nos rodea. Desde la filosofía una representación puede ser vista como un elemento que se refiere o versa sobre cualquier otra cosa. Por ejemplo, la creencia “el gato está sobre la mesa” versa sobre algún gato y en ese sentido se puede decir que lo representa de algún modo. Estas ideas llevaron a muchos autores a suponer que un sistema artificial inteligente también debería basar sus planes o razonamientos en representaciones lingüísticas o abstractas del mundo de manera similar a como nosotros en apariencia lo hacemos. Según esta perspectiva una solución al problema de la Inteligencia Artificial radicaba en el nivel de exactitud de las representaciones que una computadora pudiera albergar.
         La combinación de estas ideas dio a la IA un marco de trabajo bien definido; dando comienzo a la búsqueda por definir e implementar en maquinas las operaciones que incorporaran entre sus argumentos representaciones apropiadas del mundo. De esta manera, muchos afirmaron que sólo era cuestión de tiempo para que una computadora exhibiera un nivel de inteligencia similar al nuestro.
Sin embargo, tras décadas de investigación y desarrollo, la IA pareció estancarse en su intento por conseguir tal objetivo. Adicionalmente, varios autores desde la filosofía comenzaron a poner en duda que la inteligencia consistiera simplemente en la manipulación de representaciones con base en reglas formales (por ejemplo operaciones lógicas). John Searle, por ejemplo, demostró a través de un ingenioso argumento que una maquina que tan sólo manipula símbolos es incapaz de comprender su significado, es decir, es incapaz de saber qué representan esos símbolos. Si tenemos en cuenta que los pensamientos y creencias son para sus poseedores representaciones del mundo, entonces el argumento de Searle implica que un programa de computadora es insuficiente para dotar a una computadora con una mente.
         Ahora bien, este callejón sin salida en el que se encontraba el proyecto de reproducir la inteligencia en sistemas artificiales, no significó que la filosofía estuviese en contra de la IA. Por el contrario, nuevas tesis filosóficas han inspirado una transformación radical en la investigación de estas ideas al punto de que algunos autores han empezado a distinguir entre Inteligencia Artificial clásica y lo que se denomina ahora la nueva Inteligencia Artificial.
          Entre estas nuevas ideas podemos destacar aquellas provenientes de la fenomenología existencialista. Esta propuesta filosófica, primero formulada por Martín Heidegger y posteriormente retomada por el filósofo francés Maurice Merleau-Ponty, puede ser vista en buena parte como una réplica a las principales conclusiones de Descartes sobre la mente. Heidegger, por ejemplo, rechazaba la idea concerniente a la naturaleza representacional de los contenidos mentales y en consecuencia pensaba que buena parte de nuestro comportamiento inteligente no surgía como resultado de estimaciones o cálculos basados en representaciones abstractas del mundo. Merleau-Ponty, haciendo eco de las ideas de Heidegger, posteriormente añadió que la inteligencia más bien se fundamenta en los mismos mecanismos que facilitan nuestra percepción y motricidad corporal.
Muchos de los cambios inspirados por estas ideas y corrientes filosóficas, tanto en las ciencias cognitivas como en la IA, se pueden resumir en la propuesta de la cognición embebida. Este novedoso paradigma propone que la inteligencia debe ser comprendida en el contexto de la estrecha relación que, según Merleau-Ponty y Heidegger, existe entre la cognición y nuestros cuerpos. Así, para el paradigma de la cognición embebida la dinámica de la interacción entre el cuerpo y el ambiente circundante nos provee con los recursos necesarios para desenvolvernos en un mundo dinámico como el nuestro. Naturalmente, esto último plantea la restricción de que el comportamiento inteligente sólo puede surgir en agentes que posean un cuerpo que interactúa con su entorno. Es esta interacción la que le da al agente la posibilidad de aprender y desarrollarse.
          En el caso de la Inteligencia Artificial, la adopción del paradigma en consideración ha significado entre otras cosas el empleo de agentes autónomos artificiales, o robots, como plataformas en las cuales probar los modelos que creemos nos acercan al conocimiento de nuestra mente y así del mundo que nos rodea. Cabe resaltar, que los robots, además de recibir estímulos sensoriales a través de una gran variedad de sensores como cámaras y sonares, se encuentran en capacidad de desplazarse y modificar su entorno gracias a los actuadores que poseen. Estas características nos permiten implementar modelos cognitivos en los robots, con lo cual se busca integrar sus capacidades sensorimotrices de tal forma que puedan emerger en ellos algunas de las habilidades conductuales propias de los agentes inteligentes que encontramos en la naturaleza.
           Sin embargo, hoy en día es posible hallar en la literatura especializada diferentes perspectivas teóricas sobre esta integración sensorimotriz en agentes artificiales. Uno de los pioneros de la nueva IA, Rodney Brooks, postulaba como punto de partida que para los seres inteligentes como nosotros el mejor modelo del mundo es el mundo mismo. Con esto el autor quiso decir que nuestro entorno nos da las claves, vía nuestros sistemas sensoriales, para generar las respuestas motrices apropiadas a cada uno de los estímulos que vamos percibiendo. La inteligencia es, según esta perspectiva, un patrón de comportamiento complejo que emerge a partir de la combinación de respuestas conductuales básicas a diversos estímulos provenientes del entorno. Brooks desarrolló varios robots en su laboratorio del Instituo Tecnologico de Massachusetts (MIT), cuya conducta global estaba basada en comportamientos básicos implementados como niveles jerárquicos.
Otra perspectiva en la nueva IA es denominada bio-robótica. Según esta perspectiva, el desarrollo de agentes autónomos artificiales siempre deberá estar inspirado en modelos biológicos conocidos. Autores como Randal Beer, han enfatizado que nos debemos guiar especialmente en los diversos mecanismos neuronales que subyacen al control motriz de los agentes naturales. La implementación de estos modelos neuronales provee a los agentes artificiales con los recursos necesarios para establecer relaciones entre los objetos que les rodean y sus respectivos cuerpos. Estas relaciones luego sirven como base para el control efectivo de la acción. En resumen, la IA ha sufrido una transformación radical desde los tiempos de las primeras computadoras que estaban dedicadas enteramente al procesamiento de símbolos. Hoy en día los robots consiguen orientarse en su ambiente y como consecuencia desarrollan exitosos patrones de comportamiento. Este cambio de paradigma en la Inteligencia Artificial, se debe en parte a que la noción de inteligencia ha ido variando conforme vamos redescubriendo la riqueza y valor de las agudas observaciones de filósofos como Martín Heidegger y Maurice Merlou-ponty.


El Dr. Lara llevó a cabo estudios de posgrado en el King's College de la Universidad de Londres en el área de mecatrónica en donde trabajó con redes neuronales artificiales. Realizó un posdoctorado en la Universidad de Jena, Alemana trabajando en robótica evolutiva, desarrollando controladores para agentes autónomos artificiales haciendo uso de métodos evolutivos. Finalmente, realizó otro posdoctorado en el Instituto Max Planck de Psicología Cognitiva en Munich, Alemania. Ahí su trabajo se basó en el estudio de modelos cognitivos, provenientes de la psicología, neurofisiología y otras ciencias cognitivas, así como su implementación en agentes artificiales autónomos. Actualmente es profesor investigador de la Facultad de Ciencias de la UAEM, en donde es coordinador del área de ciencias computacionales. Sus intereses de investigación abarcan la inteligencia artificial, robótica cognitiva, robótica evolutiva y la visión artificial.

 


Dairon Rodríguez Ramírez obtuvo su grado en filosofía en la Universidad Industrial de Santander, Colombia, con una tesis laureada sobre la semántica de los nombres propios. Actualmente cursa la maestría en Ciencias Cognitivas impartida por la UAEM, enfocando su interés en las interacciones que se plantean entre la Inteligencia Artificial y la filosofía, particularmente en la cuestión relativa a la posibilidad de reproducir la intencionalidad en Agentes Autónomos.