Este trabajo persigue la definición teórica de un sistema dinámico capaz de adquirir cualquier tipo de conocimiento que pueda ser interesante en cualquier entorno de problema, si no se tienen en cuenta requisitos en cuanto a tiempo de proceso y espacio de almacenamiento. En esta línea se sugiere la hipótesis según la cual la interacción de múltiples entidades con autonomía propia que imiten las características propias de los seres vivos, dentro de un sistema cognitivo único, puede producir un comportamiento emergente que origine los procesos cognitivos superiores, tal como el aprendizaje.
En la Inteligencia Artificial (IA) se pueden observar, a grandes rasgos, dos enfoques diferentes:
- La concepción de IA como el intento de desarrollar una tecnología capaz de suministrar al ordenador capacidades de razonamiento o discernimiento similares, o aparentemente similares a las de la inteligencia humana.
- La concepción de IA como investigación relativa a los mecanismos de inteligencia humana (por extensión, investigación relativa a la vida y al universo), que emplea el ordenador como herramienta de simulación para la validación de teorías.
El primer enfoque es por lo general el más práctico, se centra en los resultados obtenidos, en la utilidad, y no tanto en el método. En este enfoque se encuadran, por ejemplo, los Sistemas Expertos. Son temas claves en esta dirección la representación y la gestión del conocimiento. Algunos autores representativos de este enfoque podrían ser McCarthy y Minsky, del MIT.
El segundo enfoque está orientado a la creación de un sistema artificial que sea capaz de realizar los procesos cognitivos humanos. Desde este punto de vista no es tan importante la utilidad del sistema creado (qué hace), como lo es método empleado (cómo lo hace). Como aspectos fundamentales de este enfoque se pueden señalar el aprendizaje y la adaptabilidad. Ambos presentan gran dificultad para ser incluidos en un sistema cognitivo artificial. Esta orientación es propia de Newell y Simon, de la Carnegie Mellon University.
Es obligado indicar que frecuentemente ambas posturas no se pueden distinguir, ni siquiera en muchos trabajos de los autores mencionados como significativos en cada una de ellas.
En los dos planteamientos, pero especialmente en el segundo enfoque, uno de los mayores deseos es el poder contar con una arquitectura que soporte todo tipo de proceso inteligente.
En la ciencia cognitiva, el concepto "Arquitectura" se refiere a la estructura no flexible subyacente al dominio flexible del proceso cognitivo, es decir, a la estructura que soporta los procesos cognitivos superiores.
Las arquitecturas propuestas como bases de la cognición humana se denominan Arquitecturas Cognitivas, mientras que las correspondientes para la cognición artificial son llamadas Arquitecturas para Sistemas Inteligentes Integrados, o Arquitecturas para Agentes Inteligentes, o Arquitecturas Generales de Inteligencia [Ros93].
Los intentos de construcción de sistemas cognitivos artificiales se basan en la hipótesis de Newell y Simon según la cual "un sistema físico de símbolos constituye el medio necesario y suficiente para una acción inteligente general" [New72].
Si se pudieran explicar los procesos cognitivos superiores de una manera intrínseca, es decir, si se pudiera demostrar que los procesos mentales inteligentes que realiza el hombre se producen a un nivel superior (o intermedio) con independencia de las capas subyacentes que existen hasta la constitución física del ente inteligente, se demostraría que es posible crear -mediante un sistema de símbolos físicos-, una estructura artificial que imite perfectamente la mente humana mediante una arquitectura de niveles, ya que se podría construir dicho nivel superior mediante la combinación de elementos que no necesariamente han de ser los que forman el nivel inferior en los humanos (que por ejemplo, podemos suponer que son las neuronas).
En cambio, si sólo se pudieran explicar los procesos cognitivos superiores mediante una descripción al más bajo nivel (comportamiento neuronal), sólo se podría imitar la inteligencia humana mediante la construcción de neuronas artificiales. Para ser exactos, esta afirmación está condicionada por la certeza de la suposición (bastante común) segun la cual el neuronal es el más bajo de los niveles relevantes para la formación de los los procesos cognitivos. Arbitrariamente, se podría haber elegido otro nivel aún mas bajo (moléculas, átomos). Llevado al extremo, se podría reescribir la afirmación, sustituyendo "neuronas" por "la más pequeña partícula de nuestro universo", si este fuera discreto (no infinitamente divisible).
Las denominaciones "nivel superior" y "nivel inferior" son arbitrarias en cuanto a que parece que se puede encontrar con facilidad un nivel que esté aún más bajo que el que hemos llamado "nivel inferior" -el nivel atómico es inferior al neuronal- y lo simétrico respecto al nivel superior -la conciencia colectiva es superior a la individual-. La existencia de una conciencia colectiva capaz de comunicarse a un nivel superior al del individuo parece evidente en los estudios sobre el comportamiento de algunos insectos, siempre que hagamos el esfuerzo de no interpretar el término "conciencia colectiva" desde nuestro punto de vista subjetivo como individuos. ¿Cómo conseguir esto? No es dificil, si se usa una analogía bajando un nivel. Imaginemos dos células (concretamente, dos neuronas) de nuestro cuerpo charlando amistosamente acerca de la posibilidad de que el conjunto de células forme una "conciencia colectiva". Las neuronas podrían hablar sobre esta "conciencia colectiva", ponerla en duda o intentar argumentar su existencia, pero difícilmente podrían llegar a comprenderla, no puede ser un concepto familiar para ellas. E.O. Wilson, en "The insect societies" define la comunicación masiva como la transmisión de información, dentro de grupos, que un individuo particular no podría transmitir a otros.
El hecho de suponer que el comportamiento inteligente en el hombre se produce a un nivel superior con independencia de los niveles inferiores está íntimamente relacionado con el debate entre holismo o creencia en que "el todo es más que la suma de sus partes" y el reducciónismo, o creencia en que "un todo puede ser comprendído completamente si se entienden sus partes, y la naturaleza de su suma." [Hof87].
Los esfuerzos desarrollados en Arquitecturas Generales de Inteligencia son puramente reduccionistas. Por el contrario, el holismo subyacente en los modelos conexionistas como las Redes Neuronales Artificiales, sugiere el aspecto de la interdependencia entre algunos niveles, o lo que es lo mismo, la imposibilidad de sustituir un nivel (las conexiones neuronales, como sistema sub-simbólico) por otro que realice sus mismas funciones (sistema simbólico). Sin embargo, también las Redes Neuronales Artificiales pueden ser consideradas reduccionistas si tenemos en cuenta otros niveles aún más bajos.
Drescher analiza con gran acierto el problema del aprendizaje sin conocimiento previo [Dre91]. La primera cuestión es decidir si existe o no conocimiento previo, innato o a priori. La respuesta a esta pregunta surge en el debate entre las posturas constructivista y nativista.
- La postura constructivista o empirista, cuyo autor más significativo es Piaget, propone que el conocimiento no es innato, sino que se obtiene a partir de la abstracción de la interacción con el mundo. Llevado a su extremo, indica que la experiencia es la única fuente de todo el conocimiento. Las teorías empiristas fueron adoptadas por la psicología asociacionista.
- La postura nativista, característica de Noam Chomsky y Hering, se centra en defender la existencia del conocimiento innato o congénito.
Es importante señalar que esta discusión se produce exclusivamente en el dominio del aprendizaje del lenguaje natural. La gran mayoría de las teorías cognitivas son básicamente constructivistas. Sin embargo, muchos autores señalan además la necesidad de la existencia de un conocimiento innato, reconciliando ambas posturas.
Entre ellos, Drescher afirma: "si existe conocimiento no innato, debe existir un conocimiento innato que será el conocimiento sobre cómo adquirir conocimiento". Es decir, Drescher defiende la postura constructivista (no todo el conocimiento es a priori), pero indica la necesidad de la existencia de un conocimiento congénito. Cuando el "conocimiento innato" al que se refiere al postura nativista, es un meta-conocimiento (conocimiento sobre cómo adquirir conocimiento), ambas posturas se equiparan.
Por otra parte, muchos autores coinciden en distinguir dos tipos de aprendizaje:
- El responsable de extraer conocimiento del entorno y llevarlo a la mente del agente.
- El aprendizaje producido mediante la combinación y utilización del conocimiento que ya se ha adquirido, que incrementa la efectividad de dicho conocimiento.
En psicología se suele definir aprendizaje como un nombre colectivo que designa "diversos procesos complejos que conducen al cambio de la conducta a través de la experiencia". En el caso que nos ocupa se hará referencia a "aprender" como el hecho de adquirir conocimientos que anteriormente no se poseían. Esta idea de aprendizaje se considera vulgar y errónea en psicología debido a que se olvida del proceso global que supone el cambio de conducta. Sin embargo, será más útil y sencillo en un principio, centrar el tema desde este punto de vista, para incluir después los demás aspectos.
Después de estos planteamientos ya se puede clarificar en cierta medida el significado de "aprendizaje sin conocimiento previo".
La primera conclusión a la que se llega siguiendo las reflexiones de Drescher es que no puede existir "aprendizaje sin conocimiento previo puro", ya que siempre es necesario un conocimiento previo para que se pueda dar aprendizaje, que será el conocimiento sobre cómo adquirir conocimiento.
Esta explicación es aceptable desde un punto de vista reduccionista, pero tal vez no lo sería desde la visión conexionista o holista, en la que tal vez resultaría más adecuado afirmar que existe de forma congénita una estructura neurofisiológica global que permite adquirir conocimiento, pero no un conocimiento explícito sobre cómo adquirir conocimiento, ubicado en un nivel estanco.
Desde el punto de vista reduccionista, en un primer acercamiento el objetivo del estudio del aprendizaje sin conocimiento previo consistirá en definir el conocimiento mínimo que debe poseer a priori un sistema para que se pueda producir aprendizaje.
Existe otro aspecto evidente, y consiste en el hecho de que una vez que han adquirido ciertos conocimientos, se deberá intentar emplear estos para resolver problemas, ya sean:
- problemas del entorno en el que está inmerso el sujeto, es decir, el problema de obtener nuevo conocimiento a partir del que ya se posee con la intención de llegar al conocimiento necesario para tomar una decisión correcta.
- el problema de cómo optimizar los métodos de adquisición de conocimiento, o cómo crear otros nuevos.
Por otra parte, además de orientar la especificación de este conocimiento mínimo a la definición de un sistema adaptativo que teoricamente fuera capaz de resolver cualquier tipo de problema, ignorando restricciones en cuanto a tiempo de proceso y capacidad de almacenamiento, sería deseable tener en cuenta desde el punto de vista práctico la creación de un sistema de gran flexibilidad, capaz de resolver problemas radicalmente distintos entre sí.
Desde este punto de vista, el interés se centraría en buscar el conocimiento mínimo que debe poseer a priori un sistema cognitivo para poder realizar a partir de él, procesos que obtengan el máximo aprendizaje con el mínimo de recursos (tiempo y espacio de almacenamiento). Adicionalmente, se pretendería que fuera suficiente para producir, en el menor tiempo posible, los procesos cognitivos superiores que conforman la inteligencia.
Gran cantidad de estudios sobre aprendizaje se basan en los resultados de las investigaciones sobre cómo se realizan los procesos cognitivos en los seres vivos. En esta línea de investigación han trabajado numerosos autores entre los que cabe destacar Pavlov, Piaget, Rescorla y Wagner, Schlimmer y Granger, y Dickinson y Shanks.
Se proponen diferentes modelos de establecimiento de relación causal entre dos eventos -asumiendo que toda relación causal tiene lugar en presencia de múltiples causas potenciales-, en función de la fuerza asociativa asignada a cada evento. Muchos autores destacan la influencia de la motivación en el aprendizaje, indicando que el aprendizaje se produce con mayor intensidad cuando los hechos afectan a la consecución de los propios objetivos, que cuando no lo hacen.
Así, el "modelo de reglas de Rescorla" es ampliado por las teorías asociativas de Pearce, Schlimmer y Granger, Gluck y Bower, y por el "modelo asociativo de Rescorla y Wagner". Las teorías asociativas critican las propuestas clásicas de representación basadas en reglas, por limitar su acción a conceptos bien definidos, y proponen una estructura gradual de conceptos, implementada normalmente mediante un mecanismo de asignación de pesos [Mat93]. Los modelos asociativos evitan las reglas causa-efecto como tales, y comulgan mayormente con los modelos conexionistas proponiendo una multiasociación gradual. La experimentación del enfoque de las teorías asociativas en humanos está aumentando considerablemente en los últimos años.
En cuanto formación de conceptos, existen variadas opiniones; desde los modelos de prototipos de categorías basados en el almacenamiento de un caso ideal representativo de la tendencia central de los ejemplos de la categoría, hasta los modelos de ejemplares, que niegan la abstracción y defienden la teoría de que no existen conceptos, sino únicamente instancias individuales.
Existen muchos otros aspectos investigados en la psicología del aprendizaje. Por ejemplo, Neisser y Ween comprobaron que se aprenden antes las reglas de afirmación y negación, resultando más difíciles de aprender la condicional y bicondicional [Mat93].
Otro tema discutido es el de la existencia de condicionamiento hacia atrás. En el ejemplo clásico de intentar obtener una Respuesta Condicionada RC (salivación) ante un Estímulo Condicionado EC (sonido), asociado a un Estímulo Incondicionado (alimento), el condicionamiento hacia adelante supondría la presentación de los estímulos en el siguiente orden: primero EC (sonido), y a continuación EI (alimento), para producir posteriormente y después de un cierto número de ensayos, RC (salivación) únicamente ante EC (sonido). En un condicionamiento hacia atrás se trataría de observar RC (salivación) ante EC (sonido) cuando en el entrenamiento el EI (alimento) comienza y termina antes de presentar el EC (sonido).
La mayoría de los sistemas basados en el conocimiento son objetivistas en cuanto a que contienen información pre-categorizada por el diseñador del sistema (propiedades, objetos, reglas, meta-conocimiento, etc.).
En oposición al objetivismo existe el subjetivismo de otros autores que pretenden que el propio agente inteligente sea capaz de crear sus propias categorizaciones en función de las señales recibidas por sus sensores. El paradigma objetivista centra su atención en los niveles altos de la cognición, mientras que el subjetivista correspondería a niveles bajos [Rod94].
Un sistema de aprendizaje sin conocimiento previo, además de ser subjetivista, debe ser capaz de aprender en situaciones totalmente nuevas. El mecanismo para la adquisición inductiva de conocimientos (a partir de la experiencia) estará basado en la observación pasiva del entorno y en la realimentación (percepción) de los efectos de las acciones realizadas, bien porque se desconocen a priori esos efectos, bien porque aunque se pueden prever con cierta probabilidad, no se tiene la total certeza de que los acontecimientos se desarrollen de determinada forma. Se trata del aprendizaje por ensayo y error (trial and error learning).
Algunos autores señalan el aprendizaje a partir de ejemplos como otra forma de aprendizaje inductivo [Kod88]. Podríamos distinguir tres tipos en función de la fuente que proporciona los ejemplos, en definitiva, el origen de la aparición de nuevo conocimiento:
- Un "profesor" (la máquina A "juega" contra el hombre y aprende de él)
- El entorno (la máquina A juega contra otra máquina B o entorno)
- El propio sistema que aprende (la máquina A juega contra otra máquina B construida por la propia máquina A)
Para este trabajo, el primero de los tipos se descarta por suponer una cierta pre-categorización del conocimiento, que se ha de evitar en lo posible en la búsqueda de aprendizaje sin conocimiento previo.
En cuanto al segundo tipo, supone un caso particular de predicción, que es precisamente de lo que se está tratando. En este caso, se tiene en cuenta que el entorno no sólo proporciona una serie de situaciones o escenarios que se han de analizar, y con los cuales se establecerán relaciones causa-efecto, sino que el entorno mismo aporta de alguna forma las reglas causa-efecto que lo definen, al menos en parte, como lo haría un libro de texto o un sistema experto. En este caso, se trata de establecer relaciones entre las diversas reglas causa-efecto, para predecir otras reglas a partir de estas.
El tercero se puede asimilar a una forma de representación del conocimiento. Consiste en que el sistema, a partir de los casos analizados, a partir de las reglas que posee, cree otras reglas, de forma similar al caso anterior.
Los sistemas de adquisición inductiva de conocimientos trabajan con un conjunto jerárquico de conceptos, acciones y reglas (a las que se añaden pesos en un modelo asociativo), orientados a la consecución de una meta (Goal-Oriented Behavior). Los conceptos son creados de forma ascendente o Bottom Up a partir de la experimentación.
Esta experimentación se produce en un primer momento totalmente al azar. Después de una acción se observan sus consecuencias y se produce una asociación mental causa-efecto que se almacena en una memoria, indicándose de alguna forma si su ejecución ha favorecido o dificultado la consecución de la meta, y en que grado. Las posteriores acciones estarán condicionadas por el conocimiento almacenado en la memoria, evitándose en lo posible recurrir al azar.
Evidentemente, las metas u objetivos del ente inteligente han de ser definidas a priori, y aunque posteriormente pueden evolucionar por sí mismas, esta evolución se dará más en la forma (submetas) que en el fondo (meta o metas últimas), siempre que no exista una modificación externa, que lo transformaría en otro ente diferente. La definición de las metas puede ser complicada, en función del comportamiento que se desee producir.
En este caso, la analogía con el ser humano es origen de debate sobre el determinismo a alto nivel (¿el hombre está definido por un objetivo que debe cumplir?), al igual que holismo versus reduccionismo es análogo a la discusión acerca de la existencia (¿física?) del alma (¿se puede construir un ser idéntico al hombre?).
Drescher describe un mecanismo de aprendizaje sin conocimiento previo orientado a la computación, llamado schema mechanism [Dre91]. El procedimiento consiste en identificar cada posible estado, situación o contexto en el que se puede encontrar el ente inteligente mediante un conjunto de valores de unos items o variables que definen esa situación.
Existe una serie de acciones, primitivas u operadores cuya ejecución o aplicación hace evolucionar al sistema de un estado a otro.
Si se realiza una acción y se pasa a un estado desconocido, se almacena información que represente ese nuevo estado y se crea una regla (schema) que represente las condiciones necesarias para pasar a ese nuevo estado.
El problema consiste cómo identificar qué acción ha sido la responsable de una transición. Se recuerda que las acciones y los estados se organizan en una estructura jerárquica. Es evidente que si se analizan con la misma intensidad (dedicando el mismo tiempo) todas las posibles conexiones acción-transición en todos los niveles de la jerarquía, el tiempo de proceso tendería rápidamente hacia infinito. Aquí entran en juego las teorías psicológicas comentadas anteriormente.
Schlimmer y Granger desarrollaron un algoritmo llamado STAGGER que implementaba las teorías asociativas mediante la asignación de pesos. STAGGER es capaz de detectar ruido o información imperfecta, realizando un procesamiento provisional de los datos, siempre que el ruido que se produzca sea de tipo sistemático -sólo en los ejemplos, o sólo en los contraejemplos-. IKASLE es un algoritmo que opera de manera similar a STAGGER, siendo capaz de aprender en casos de ruido aleatorio [Alb92].
El proyecto SOAR es uno de las más destacados esfuerzos en la definición y creación de Arquitecturas para la Inteligencia General, ya que incluye muchas de las características de otros sistemas que se han construido con anterioridad a él.
Las Arquitecturas Generales de Inteligencia basan su funcionamiento en un conjunto jerárquico de submetas. Las submetas son creadas como efecto del intento de llegar a otra meta de forma descendente o Top Down. Sin embargo el sistema, a priori, no puede descomponer una meta en una submeta, ya que no posee el conocimiento necesario para realizar dicha descomposición. Por esta razón, las arquitecturas basadas en la creación de submetas, no proporcionan un mecanismo suficientemente potente para producir aprendizaje sin conocimiento previo.
Después de haber revisado las diferentes teorías y propuestas aplicables a la creación de un sistema cognitivo artificial capaz de realizar aprendizaje sin conocimiento previo, se observa que por una parte existe diversidad de opiniones en cuanto a la existencia o no de diferentes aspectos en el aprendizaje (caso de los modelos de ejemplares que niegan la existencia de conceptos; caso del condicionamiento hacia atrás).
Por otra parte sucede que por lo general existe más de un procedimiento para llevar a la práctica una misma teoría; por ejemplo, una ley que defina el efecto de la motivación para la asignación de pesos en la creación de relaciones causales poseerá constantes que habrá que parametrizar de alguna forma.
Otro ejemplo que puede ser muy ilustrativo -ya que se trata de uno de los más sencillos-, es el del difundido supuesto de la existencia de diversas memorias (de recepción sensorial, a corto plazo, y a largo plazo) para la retención inmediata, a corto y largo plazo, como partes del proceso de aprendizaje.
Parece evidente que la capacidad de memoria es innata y necesaria para el aprendizaje. Si se desea incluir estos aspectos de la memoria en un sistema de aprendizaje no a priori, surgen multitud de interrogantes: ¿Se especifican dos o tres tipos de memoria? ¿O aún mejor se posibilita la existencia de un número variable de tipos? En ese caso, ¿Variable en función de qué? ¿Está permitida la eliminación de zonas de memoria? ¿Bajo qué condiciones se permite el borrado de un dato? ¿Cómo se divide la capacidad total entre las diferentes memorias?
El comportamiento emergente consiste en el fenómeno de producirse un comportamiento complejo a partir de una serie de reglas simples.
Un ejemplo ilustrativo del comportamiento emergente es el caso del experimento desarrollado por Cristopher Langton en la Universidad de Michigan. Langton simuló un entorno artificial de una colonia de hormigas en una rejilla compuesta por celdillas blancas, azules y amarillas. Las reglas asignadas a las hormigas fueron: si una hormiga penetra en una celdilla blanca, continúa desplazándose hacia adelante. Si se introduce en una celdilla azul, ésta adopta el color amarillo, y la hormiga girará a la izquierda; y si penetra en una celdilla amarilla, ésta se tornará azul, y la hormiga girará a la derecha.
En un primer momento, las hormigas erraron sin rumbo definido, pero en poco tiempo las hormigas se encontraron unas a otras formando una fila. El aspecto interesante de este experimento es que no se había programado explícitamente que las hormigas adoptaran un comportamiento social de este tipo, sino que se produjo espontáneamente. Este tipo de comportamiento es habitual en experimentos de vida artificial.
Nota: este experimento se ha intentado repetir al menos por tres personas que conozco sin lograr ningún éxito. Todas las referencias al experimento original de que dispongo son indirectas. Todo parece indicar que el experimento tal como se ha descrito está incompleto o mal planteado. Algunas de las dudas que surgen son:
- Si una hormiga debe situarse en una casilla en la que se encuentra otra hormiga, ¿qué debe hacer? ¿situarse sobre ésta? ¿esperar a la siguiente iteración? ¿cambiar de rumbo aleatoriamente? ¿El estado de todas las hormigas debe cambiar "a la vez", en ciclos, en función de los estados anteriores de todas las celdas, o podemos ejecutar las hormigas una por una en secuencia?
- ¿Es suficiente con esas reglas para que surja el tal "comportamiento emergente", o es necesaria alguna otra?
- ¿De qué dimensiones ha de ser la rejilla?
- ¿Cuántas hormigas es necesario poner?
- ¿Qué dirección inicial debe llevar cada hormiga? ¿Aleatoria? ¿Cuantas direcciones posibles tienen las hormigas? ¿4? ¿8?
- ¿Qué porcentaje de celdas deben ser blancas, azules y amarillas?
- ¿Se deben situar las casillas azules y amarillas de forma aleatoria, o formando algún patrón especial?
- Si una hormiga llega al límite de la rejilla siguiendo su dirección, ¿qué de debe hacer? ¿Pueden o deben existir celdillas prohibidas que no sean ni azules ni amarillas ni blancas?
Muchos autores coinciden en señalar que el aprendizaje de los organismos tiene lugar, además de en el organismo individual, a nivel de especie. El aprendizaje de las especies se manifiesta en la evolución, estará formado por características presentes en todos los individuos de la especie, y puede originar comportamientos emergentes como el mencionado. Puede imaginarse también un aprendizaje a nivel de ecosistema, en el que intervengan varias especies. La evolución biológica se basa en la selección y la variación genética. Los genes mejor dotados serán los predominantes. El proceso no experimenta estancamiento porque pasado cierto tiempo se producen mutaciones, y aparecen nuevos genes y nuevas combinaciónes de genes mediante reproducción sexual.
Thomas Ray diseñó en la Universidad de Delaware un sorprendente sistema llamado TIERRA capaz de imitar en gran medida los procesos evolutivos. En él, cada organismo es un programa con capacidad de autorreproducirse, encontrándose todos ellos en un recinto de memoria limitada. Cuando un programa encuentra una zona de memoria libre, copia su propio código. Se permitieron modificaciones al azar a la hora de replicar un programa; se incluyó un programa que eliminaba a los programas más viejos o aquellos cuyo código era erróneo, se estableció que la ejecución de ciertas instrucciónes podía retrasar la muerte, etc. En un principio se introdujo un único programa de 80 instrucciónes. Al cabo de un tiempo surgió un programa de sólo 22 instrucciónes capaz de autorreproducirse a una velocidad mucho mayor que la de la criatura original; aparecieron parásitos incapaces de reproducirse, que robaban código de los programas adyacentes. Estos parásitos fueron superados por unos programas inmunes a ellos, hasta que aparecieron otros mejor dotados, incapaces de reproducirse aisladamente pero capaces de hacerlo en comunidad.
A continuación se va a desarrollar la hipótesis de que los procesos cognitivos en una sola entidad inteligente, como puede serlo una persona, pueden estar formados por el resultado de la interacción de múltiples entidades sencillas dotadas cada una de ellas de las características propias de los seres vivos, observandose desde el exterior que emerge un resultado coherente fruto de una situación interior compleja.
Independientemente de la validez de esta hipótesis, un mecanismo de este tipo serviría de base para la implementación de las teorías asociativas ofreciendo un mecanismo mucho más complejo y potente que la simple asignación de pesos y serviría a su vez como laboratorio para la experimentación de la validez de las diversas teorías psicológicas.
El planteamiento de Drescher en el debate entre las posturas constructivista y nativista ante el problema de la existencia de conocimiento innato se puede aplicar sobre sí mismo tantas veces como se desee en una variante de la paradoja de Russell sobre la auto-observación, similar a la hipótesis de Rucker sobre la mente humana como un sistema infinitamente introspectivo, y en la línea de muchas de las reflexiones de Hofstadter sobre el teorema de Gödel [Mor91] [Hof87].
Llamemos "A" al conocimiento sobre cómo adquirir conocimiento. El conocimiento sobre cómo adquirir conocimiento (conocimiento "A") podría no ser innato, siempre que existiera, de forma congénita, un conocimiento "B" sobre cómo adquirir conocimiento "A", es decir, un conocimiento sobre cómo adquirir conocimiento sobre cómo adquirir conocimiento. El conocimiento "C" sería el conocimiento sobre cómo adquirir conocimiento "B" y así sucesivamente.
Un sistema con conocimiento "A" y "B" será más potente y más general que uno que sólo posea conocimiento "A", y un sistema con conocimiento "A", "B" y "C" sería más general que uno con conocimiento "A" y "B".
Se van a describir con mayor detalle cada uno de estos niveles. Si se pretende construir un sistema artificial que contenga niveles de este tipo, la característica principal que deben cumplir estos niveles es ser recursivos. La recursividad se entiende en cuanto a que el mecanismo que proporcione su existencia debe ser único.
Cada uno de los niveles consiste en un resolutor de problemas, ya que se puede identificar la adquisición de conocimiento como un problema a resolver. El primero de ellos analiza un problema cuyos elementos pertenecen al mundo real, formado por el ente inteligente y su entorno. El segundo analiza el comportamiento del primero, el tercero el del segundo y así sucesivamente.
Definiendo instancia como representación mental de un objeto o ocurrencia específica, y clase como representación mental de un grupo de objetos, tenemos:
En el primer nivel el ente inteligente analiza el mundo exterior a él y realiza los siguientes procesos:
- Crear instancias de nivel 1 que representen situaciones o estados del mundo exterior. Estas serán las únicas que tendrán su equivalente en el mundo exterior. Cada instancia representa un posible estado del mundo exterior. Para crear instancias se utilizarán métodos de creación de instancias, que consistirán en la simple observación del "mundo exterior".
- Crear conceptos a partir de la generalización de instancias. Estos conceptos sólo tienen existencia en el mundo interior del pensamiento. Para crear conceptos se utilizarán métodos de creación de conceptos basados en comparar y fusionar instancias.
- Resolver problemas del "mundo exterior" manejando conceptos e instancias. Para resolver problemas se utilizarán métodos de resolución de problemas basados en la realimentación de los efectos de las acciones ejecutadas en el "mundo exterior"
Existe una serie de parámetros que definen el funcionamiento de este primer nivel, de manera que cada combinación de esos parámetros configura un método de resolución de problemas diferente.
En el segundo nivel, lo que se analiza no es el "mundo exterior" al pensamiento sino el propio pensamiento. Se analiza el resolutor de problemas del nivel 1. los procesos son:
- Crear instancias de nivel 2 que representan situaciones o contextos del nivel 1, es decir, métodos de resolución de problemas utilizados por el nivel 1. Cada instancia representa un estado del nivel 1. Los métodos de creación de instancias, consistirán en la observación del primer nivel.
- Crear conceptos a partir de la operación de generalización (comparar y fusionar) aplicada a un conjunto de instancias que representan métodos de resolución de problemas.
- Resolver problemas del nivel 2 manejando conceptos e instancias. En este caso, las "acciones" corresponden con la elección de los parámetros con los que funciona el primer nivel. Así se obtendrán nuevos métodos de métodos de resolución de problemas (meta-métodos). Desde el punto de vista del conocimiento, se adquirirá meta-conocimiento.
El funcionamiento de este segundo nivel está también definido por una serie de parámetros, que pueden ser manejados por el nivel 3, y así sucesivamente.
Se observa la simetría entre los procesos desarrollados en cada uno de los niveles, que permitirá su implementación recursiva. También se hace notar que el nivel más alto de la jerarquía no es controlado por ningún otro, ya que no existe un nivel superior a él que lo observe, y su existencia define la limitación de la flexibilidad del sistema.
Imaginemos ahora la existencia de un super-nivel que posee conocimiento acerca de cuántos niveles de conocimiento son deseables, de manera que este nivel pueda decidir el número de niveles desde "A" hasta "Z" que deben existir. Este super-nivel podría juzgar incluso su propia razón de ser; podría decidir que su existencia no está justificada ya que el número de niveles óptimo es, por ejemplo, tres; y decidir eliminarse a sí mismo.
Tanto en el hombre como en un sistema cognitivo artificial, es posible que exista conocimiento del tipo "A", "B", "C", etc. No conozco estudios psicológicos que determinen si el hombre es un sistema inteligente con un número fijo de niveles de este tipo o si posee un super-nivel que le permita poseer un número cualquiera de ellos, aunque se puede intuir la existencia de al menos tres o cuatro niveles.
Un sistema artificial podrá poseer tantos niveles de este tipo como seamos capaces de proporcionarle. Llamaré "Z" al último nivel de estos "conocimientos". Aunque el número de niveles no podrá ser infinito, un Resolutor General de Problemas o GPS (General Problem Solver), deberá poseer la capacidad de disponer de cualquier número de estos niveles de conocimiento, siempre que la existencia de dichos niveles sea indispensable para resolver un problema.
Podemos suponer que nunca será necesario utilizar más de un cierto número de niveles. En ese caso, la creación de este sistema serviría para intentar descubrir de forma empírica cuál es el nivel "Z" al que se debería llegar en la construcción de un Resolutor General de Problemas. Por el contrario, si se comprobara que en algunos casos es de gran utilidad la existencia de un gran número de niveles, y se pudieran identificar los tipos de problemas que requieren una u otra estructura de niveles, se daría un gran paso en la construcción de GPS.
En este planteamiento, el concepto de conocimiento se vuelve confuso. Es habitual dividir el conocimiento en declarativo, procedimental y heurístico. Un hecho concreto se representaría de forma declarativa. El mecanismo para obtener nuevo conocimiento sería un conocimiento procedimental. El conocimiento heurístico es un conocimiento complejo que en el mejor de los casos podemos suponerlo como combinación de los dos anteriores (en el peor de los casos, se desconoce cómo se representa este conocimiento).
Supongamos que es posible acceder a los símbolos físicos que representan un meta-conocimiento dado, es decir, un conocimiento de tipo "A", "B", etc. o super-conocimiento, y modificar dicho conocimiento al azar, entendiéndose el azar como la elección de una posible acción (modificación) entre varias en función de una causa no controlada o desconocida.
Esta modificación al "azar" sería un mecanismo capaz de generar nuevo meta-conocimiento. La utilidad de este nuevo conocimiento sería dudosa en un principio, ya que la probabilidad de que el nuevo conocimiento generado funcione como un mecanismo de aprendizaje válido sería normalmente pequeña.
Sin embargo, en el caso del aprendizaje sin conocimiento previo en el "mundo exterior" (en el caso de la adquisición de "conocimiento" a secas), el mecanismo se basa inicialmente en la ejecución de acciones al azar. Por analogía, el aprendizaje de conocimientos superiores (tipo "A", "B", etc.) en el "mundo interior" podría producirse de la misma forma.
Existe la hipótesis generalmente admitida de que la causa de la inteligencia que poseen las diversas especies animales y el hombre es la selección producida sobre combinaciones de elementos al azar: mutaciones genéticas y mecanismos evolutivos de selección de las especies.
Siguiendo esta hipótesis de una forma análoga, el conocimiento mínimo necesario para la creación de un sistema capaz de realizar los procesos cognitivos superiores podría ser un conocimiento almacenado de forma procedimental que consiste básicamente en el azar en cada uno de los niveles y meta-niveles mencionados anteriormente.
Se recuerda que este azar sólo se produce en un estado inicial y que a partir de ese momento se trata de un azar dirigido por las metas. El mecanismo de lucha por la supervivencia se encargaría de seleccionar en un primer lugar las entidades cuyos procesos de azar les han llevado a la consecución de los objetivos -se puede pensar en las metas en términos de la pirámide de necesidades de Maslow (en primer lugar las necesidades básicas fisiológicas, etc.)-. Posteriormente, en un entorno adverso de escasez, se seleccionarían las entidades capaces de representar, almacenar y utilizar la experiencia adquirida en la consecución de objetivos para la satisfacción de nuevas necesidades.
El soporte que permita la creación automática de estos procesos a partir de un conocimiento mínimo en un sistema computador podría ser un sistema de Vida Artificial, en el que, tanto las instancias como las clases, las reglas y los mecanismos de aprendizaje y todos los elementos que lo compongan sean objetos de entidad propia que incluyan cada uno de ellos las características propias de un ser vivo: ejecución paralela, objetivos, nacimiento, muerte (en el caso de no conseguir los objetivos), reproducción, mutaciones genéticas (azar), etc.
Este soporte sería capaz de simular la existencia de varias entidades inteligentes, incluir aspectos como la selección de las especies, la colaboración entre individuos, etc. También sería el soporte idóneo para incluir el resto de los aspectos que conforman el aprendizaje y que en este desarrollo se han omitido: motivación, miedo, deseo, costumbre, percepción, etc.
Un sistema de aprendizaje es un sistema capaz de crear un nivel adicional de significado o incrementar el conocimiento de este nivel superior ya existente mediante la combinación de elementos de un orden inferior. Un método de aplicación general para producir aprendizaje en cualquier entorno podría ser un sistema que utiliza un generador aleatorio de símbolos (conocimiento), y pone a prueba su utilidad convirtiendo símbolos en acciones realimentándose con los efectos de esas acciones, convirtiendo en sentido opuesto, hechos del mundo real en símbolos manejables por la función de realimentación.
Mientras que el agente completo recibe, actúa sobre y maneja hechos del mundo real, la función de realimentación contenida dentro del agente recibe, actúa sobre y maneja símbolos de un nivel superior, que pueden representar o no hechos del mundo real. La función de realimentación, aunque también está constituida por símbolos físicos igual que el entorno, produce la emergencia de un nivel de significado superior al de los símbolos físicos, pudiendo existir dentro de ella, otros niveles de abstración aún superiores.
KLEIN, STEPHEN B.
[Kle94]
1994 APRENDIZAJE. PRINCIPIOS Y APLICACIONES
McGraw Hill
FISHER, D.
LANGLEY, P.
[Fis90]
1990 THE STRUCTURE AND FORMATION OF CATEGORIES
en THE PSYCHOLOGY OF LEARNING AND MOTIVATION
Bower, G. H. (Ed.)
Academic Press
PEARCE, J. M.
HALL, G.A.
[Pea80]
1980 A MODEL FOR PAVLOVIAN CONDITIONING
Psychological Review
RESCORLA, R. A.
WAGNER, A. R.
[Res72]
1972 A THEORY OF PAVLOVIAN CONDITIONING
en CLASSICAL CONDITIONING II
Black, A. H. (Ed.)
Appleton-Century-Crofs
SMITH, E.E.
[Smi89]
1989 FOUNDATIONS OF COGNITIVE SCIENCIE
MIT Press
MATUTE, HELENA
[Mat93]
1993 APRENDIZAJE Y REPRESENTACION DE CONCEPTOS
en APRENDIZAJE Y MEMORIA HUMANA: ASPECTOS BASICOS Y EVOLUTIVOS
J.I. Navarro (Ed)
McGraw Hill
ALBERDI, EUGENIO
MATUTE, HELENA
REMENTERIA, SANTIAGO
[Alb92]
1992 APRENDIZAJE A PARTIR DE EJEMPLOS Y ASIGNACION DE PESOS
en NUEVAS TENDENCIAS EN INTELIGENCIA ARTIFICIAL
Moral, A. y Llaguno, M. (Ed.)
Universidad de Deusto
ROSENBLOOM, PAUL S.
[Ros93]
1993 SOAR PAPERS: RESEARCH ON INTEGRATED INTELLIGENCE
Volúmenes 1 y 2
LAIRD, JOHN
ROSENBLOOM, PAUL S.
NEWELL, ALLEN
[Lai86]
1986 UNIVERSAL SUBGOALING AND CHUNKING
Kluwer Academic Publishers
PIROLLI, PETER
[Pir93]
1993 TOWARDS A UNIFIED MODEL OF LEARNING TO PROGRAM
en COGNITIVE MODELS AND INTELLIGENT ENVIRONMENTS FOR LEARNING PROGRAMMING
Lemut, Enrica (Ed.)
NATO ASI Series. Series F, Computer and Systems Sciences
Vol. 111
NEWELL, A.
SIMON, HERBERT A.
[New72]
1972 HUMAN PROBLEM SOLVING
Prentice Hall
OHLSSON, STELLAN
[Ohl93]
1993 THE INTERACTION BETWEEN KNOWLEDGE AND PRACTICE IN THE ACQUISITION OF COGNITIVE SKILLS
en FOUNDATIONS OF KNOWLEDGE ACQUISITION
Susan Chipman (Ed.)
Kluwer Academic Publishers
BEER, RANDALL D.
[Ran90]
1990 INTELLIGENCE AS ADAPTIVE BEHAVIOR
Academic Press
ANDERSON, JOHN R.
[And90]
1990 ADAPTIVE CHARACTER OF THOUGHT
Lawrence Erlbaum Associates
STADDON, J. E. R.
[Sta83]
1983 ADAPTIVE BEHAVIOR AND LEARNING
Cambridge University Press
KODRATOFF, YVES
[Kod88]
1988 INTRODUCTION TO MACHINE LEARNING
Morgan Kaufmann Publishers
HINTON, GEOFFEY E.
[Geo89]
1989 PARALLEL MODELS OF ASSOCIATIVE MEMORY
Lawrence Erlbaum Associates
KLAHR, DAVID (Ed.)
[Kla87]
1987 PRODUCTION SYSTEM MODELS OF LEARNING AND DEVELOPMENT
MIT Press
DRESCHER, GARY L.
[Dre91]
1991 MADE UP MINDS
MIT Press
HOFSTADTER, DOUGLAS R.
[Hof87]
1987 GÖDEL, ESCHER, BACH. UN ETERNO Y GRACIL BUCLE
Tusquets Editores & CONACYT
MORRIS, HAROLD C.
[Mor91]
1991 ON THE FEASIBILITY OF COMPUTATIONAL ARTIFICIAL LIFE
en FROM ANIMALS TO ANIMATS
Meyer, Jean-Arcady y Wilson, Stewart W. (Ed.)
MIT Press
LANGTON, CHRISTOPHER G. (Ed.)
[Lan89]
1989 ARTIFICIAL LIFE
The proceedings of an interdisciplinary workshop on the synthesis and simulation of living systems
Addison-Wesley
[Lan90]
1990 ARTIFICIAL LIFE II
Proceedings of the workshop on artificial life
Addison-Wesley
RODRIGUEZ, MIGUEL
ERARD, PIERE-JEAN
MULLER, JEAN PIERRE (Ed.)
[Rod94]
1994 VIRTUAL ENVIRONMENTS FOR SIMULATING ARTIFICIAL AUTONOMY
en ARTIFICIAL LIFE AND VIRTUAL REALITY
Magnenat Thalmann, Nadia (Ed.)
John Wiley & Sons