ISSN: 1579-0223
 
Sentience Research
REDcientífica
· Misión de REDcientífica
· Contacto
· Condiciones de publicación
· Consultar todos los documentos
· Consultar todos los autores
· Acceso usuarios registrados
· English version


PORTADAS
40  41  42  43  44  45  46  47  48  49  50  51  52  53 

BOLETINES
40  41  42  43  44  45  46  47  48  49  50  51  52  53 

TEMAS



ENLACES

Autómatas como analogías de nuestro universo
Autómatas, Tiempo, Espacio, Vida y Azar

Manuel de la Herrán Gascón
http://www.manuherran.com
 
ImprimirEnviar

En este documento se discuten varios casos de utilización de analogías entre nuestro universo real y universos simulados en la creación de hipótesis acerca de la naturaleza de "conceptos difíciles" como son el tiempo, el espacio, la vida y el azar.


 

Nota: Este artículo está contenido dentro del libro Arena Sensible de Manuel de la Herrán Gascón, publicado en Abril de 2005 bajo licencia Creative Commons, y editado por REDcientífica. Pulse aquí para consultar más información sobre el libro.


Autómatas que no resuelven problemas

Por oposición a los autómatas utilizados para la resolución de problemas, podríamos hablar de autómatas orientados a la representación, utilizados para la falsación de hipótesis, o simplemente, para ayudarnos a enfocar un problema desde un nuevo punto de vista. Por lo general, cuando se habla de redes neuronales artificiales, algoritmos genéticos o computación evolutiva, se habla de resolver problemas. Por la forma en la que se definen los problemas para los que se aplican estas técnicas, en muchos casos es posible confiar en los resultados. En cambio, cuando se habla de vida artificial o autómatas celulares, normalmente se trata de representar y experimentar con diversos mundos artificiales, intentando extraer analogías válidas respecto de nuestro propio mundo real. Las limitaciones de estas simulaciones acostumbran a ser tan obvias que lo extraño es confiar en los resultados. Aunque las limitaciones no están en la vida artificial o en los autómatas celulares, sino en la naturaleza de las preguntas que estas simulaciones tratan de responder.

En general, el objetivo de las simulaciones orientadas a la representación es realizar analogías entre un mundo real y un mundo simulado, de forma que el autómata sirva para conocer mejor el mundo real. Existen varias áreas de estudio donde aplicar este tipo de autómatas. La mayor parte de estas aplicaciones pertenecen a uno de dos grupos, según se dediquen a buscar conocimiento sobre algún aspecto concreto de:

  • la vida
  • el universo

Los temas pueden parecer demasiado vagos, generales o ambiciosos. Lo son. Se podría introducir un tercer apartado que fuera "... y todo lo demás", parafraseando a Douglas Adams en su famosa serie de humor "Guía del Autoestopista Galáctico", donde se tratan con gran acierto muchos de los temas fundamentales en vida artificial.

Si bien es cierto que conceptos como "la vida" o "el universo" se resisten a su definición, no son en absoluto despreciables como fenómenos susceptibles de estudio. La falta de definición se debe al desconocimiento acerca de la naturaleza del propio objeto de estudio, más que a una falta de definición en cuanto a lo que se quiere estudiar. Es decir, todos sabemos de qué se trata cuando preguntamos "¿qué es el tiempo?", "¿qué es el espacio?", "¿qué es la vida?", "¿qué es el azar?", aunque sigamos sin saber qué es el tiempo, qué es el espacio, qué es la vida y qué es el azar. Por otra parte, es posible estudiar aspectos muy específicos de la vida y el universo, como ciertas teorías evolutivas, estrategias cooperativas, o interacciones entre partículas. Aunque no existe aún una respuesta satisfactoria a estos interrogantes, creo que las herramientas actuales ofrecen una buena oportunidad para lograr avances significativos en este sentido.

Empecemos con un ejemplo. El programa "Hormigas y Plantas" de la aplicación "Ejemplos de Vida" no está orientado a la resolución de un problema determinado, sino a la representación de un universo imaginario que pretende reunir de forma muy simplificada varios aspectos de nuestro universo real. El objetivo de esta representación es encontrar líneas de investigación interesantes, así como intentar falsar (demostrar la falsedad) de hipótesis de trabajo, mediante la analogía con nuestro universo real. El asunto concreto que aquí se estudia es el de la estabilidad de distintas estrategias de egoísmo, altruismo y cooperación.

Hacer click en la imagen para verla ampliada

En este programa se observan unas "hormigas" paseando por un mundo bidimensional, cooperando, peleando, y reproduciéndose entre ellas. Aunque se habla de "hormigas", el programa no pretende estudiar estos insectos, sino más bien la evolución de distintas estrategias que son posibles en este mundo. Por ejemplo, una estrategia para una hormiga podría ser: "Voy a pelear el 30% de las veces que me encuentre con otra hormiga".

Hacer click en la imagen para verla ampliada

Realizando experimentos con el programa se llega a la conclusion de que las poblaciones donde abundan los individuos con alta tendencia a poseer comportamientos egoístas, no son estables. ¿Es aplicable esta conclusión a nuestro mundo real?

No. No podemos aplicar esa conclusión a nuestro mundo real. Sin embargo, y sin dejar de ser escépticos, algo hemos avanzado. Cuando se trabaja con analogías, la validez de las conclusiones es difícilmente demostrable. Pero ésta no es razón suficiente para restarles importancia científica. Tal como comenta Norbert Wiener en Dios & Golem, S.A., "Si bien es peligroso afirmar que existe una analogía con evidencias insuficientes, es igualmente peligroso rechazar una sin pruebas de su falta de congruencia". Para la tarea científica, que se asemeja a una búsqueda en un enorme espacio de estados, puede ser tan importante un hecho demostrado como un indicio prometedor.

El principal inconveniente de toda simulación es que requiere de una simplificación, y no es fácil obtener un criterio para decidir hasta qué nivel de detalle es preciso simular. Incluso en ciertos casos tal vez no sea posible decidir ni siquiera si existe o no dicho nivel, es decir, el nivel de detalle necesario puede ser tan profundo que no tenga sentido la simulación, pero ¿cómo estar seguros de que eso es cierto?

Por supuesto que este problema no sólo se da en la llamada vida artificial. Tal vez utilicemos una red neuronal o un algoritmo evolutivo para calcular el diseño de una red de telecomunicaciones minimizando los costes, y a la hora de implementar el modelo en la realidad, otros factores no contemplados (impacto ecológico, acciones de la competencia, dificultades administrativas, variaciones en el consumo) hagan disminuir la calidad de la solución propuesta. Esto lo saben perfectamente quienes han tratado de aplicar estos métodos a la predicción de variables económicas.

De todas formas, las simulaciones orientadas a la representación serán de utilidad. Describir algunos ejemplos de aplicaciones de este tipo ayudará a mostrar la forma de trabajar con ellas. En física teórica abundan las teorías que pretenden explicar un comportamiento complejo mediante la definición de las interacciones entre ciertos elementos básicos, con reglas relativamente sencillas. En estos casos, resulta útil realizar simulaciones, ya que en ellas es posible comprobar si efectivamente se produce o no el comportamiento complejo esperado. En el caso de tener éxito, estas simulaciones no demuestran la existencia de dichos elementos simples ni la veracidad de esas reglas relativamente sencillas, pero sí ofrecen una explicación del comportamiento complejo conocido y objeto de estudio.

Es decir, se ofrece una explicación, compatible con la experiencia y con las creencias vigentes, como alternativa a no poseer ninguna explicación del fenómeno. Una teoría puede ser, sin saberlo nadie, rigurosamente falsa, o si se prefiere, "no completamente cierta", y sin embargo ser útil.

Esto ocurre en la física, donde contínuamente nuevas teorías reemplazan a otras. En algunos casos la vieja teoría no es abandonada y puede ser incluso más utilizada que la nueva, a pesar de haberse comprobado que no es absolutamente cierta. Es el caso de la teoría gravitatoria de Newton, que supone una acción instantánea de la gravedad, frente a la teoría einsteniana, donde la interacción gravitatoria se propaga a la velocidad de la luz. Por supuesto que la teoría newtoniana, definida con sus debidas restricciones es completamente cierta. Me refiero a que la teoría newtoniana como teoría general, sin restricciones, fue falsa, pero fue útil (y lo sigue siendo). Fue útil porque fue una explicación de un fenómeno, compatible con las creencias vigentes (personalmente incluyo dentro de "creencias" los resultados de los experimentos realizados para comprobar teorías, negando a los experimentos el caracter aséptico que habitualmente se les otorga), y no importa que más tarde se descubriera que era sólo un caso particular. Las teorías físicas actuales son útiles, y no parece aventurado suponer que se trata de casos particulares, que serán ampliados en el futuro. Dada la experiencia, lo aventurado sería suponer lo contrario.

De hecho, las teorías podrían no ser ni siquiera casos particulares, sino completamente falsas y requerir no sólo de ampliaciones, sino de una redefinición, de un nuevo punto de vista. ¿Por qué entonces tener que abordar únicamente teorías compatibles con TODOS los experimentos y con TODAS las creencias vigentes? ¿No tendría sentido desarrollar teorías que contradigan incluso hipótesis que se consideran fundamentales? Supongo que esta búsqueda no tiene mucho sentido para quien, asombrado del avance científico y tecnológico humano reciente, opina que "quedan como mucho uno o dos secretos a descubrir del Universo" y además, "está ya todo inventado", pero otros opinamos que globalmente, el Hombre, como entidad sensible, está aún muy lejos de evitar razonablemente el dolor. Aunque los avances en ciencia y tecnología sean significativos, y bienvenidos sean, su aplicación en beneficio de la felicidad humana se ve claramente deficiente.

El siguiente esquema refleja la ubicación de varios ejemplos de este tipo de aplicaciones de la vida artificial

  • Inteligencia Artificial
    • Enfoque Simbólico
      • Compiladores
      • Sistemas Expertos
    • Enfoque Subsimbólico
      • Simulación de sistemas complejos
        • Resolución de problemas: búsqueda, clasificación, predicción y optimización.
          • Redes Neuronales
          • Computación Evolutiva
        • Simulación de universos: falsación de hipótesis
          • Vida Artificial
            • ¿Qué es la vida?
              • Biología
                • ¿Qué es la individualidad?
                • ¿Es posible la cooperación?
              • Sociología
                • ¿Puede perdurar una revuelta?
            • ¿Cómo funciona el universo?
              • Física
                • ¿Qué son el tiempo y el espacio?
              • Metafísica
                • ¿Qué es el azar?

Antes de comenzar con el desarrollo, quiero destacar que lo que me propongo es mostrar ejemplos de posibles líneas de investigación en la descripción de las propiedades de los conceptos "tiempo", "espacio", "vida" y "azar".

A continuación describiré brevemente algunos de los ejemplos de aplicaciones propuestos, justificando sus definiciones. Más adelante desarrollaré varios de ellos. Como he comentado, la utilización de vida artificial como herramienta de simulación no permite llegar a conclusiones definitivas, pero sí aporta un nuevo punto de vista, "posibles explicaciones" o "caminos prometedores".

Dos ejemplos carácterísticos dentro de "¿Qué es la vida?" son "¿Qué es la individualidad?" y "¿Es posible la cooperación?". Ambas preguntas, por la forma en que las he planteado, requieren de una justificación.

He preferido la interrogación "¿Qué es la individualidad?" a "¿Qué es la conciencia?" a pesar de que el mismo tema es más conocido por esta segunda definición. La razón es que el término "consciente" es un tanto confuso, tal como describe Agustín de la Herrán en su libro La conciencia humana.

Podemos identificar entidad consciente con aquella que procesa (lee o recibe; escribe o genera; y, opera con) simbolos, de tal forma que posee al menos un símbolo que representa a ella misma. Pero sería tal vez mejor utilizar la palabra autorreferente, ya que en el lenguaje común se sigue suponiendo que el ser consciente es algo más.

La autorreferencia ha sido tratada profusamente por Douglas R. Hofstadter en Gödel, Escher, Bach. Un eterno y grácil bucle. Algunos ejemplos de autorreferencia son dos espejos enfrentados, o el conjunto formado por una cámara de vídeo que está grabando lo que se muestra en un monitor que es precisamente la salida de esa misma cámara de vídeo, o lo que en programación se conoce como una función recursiva (que se llama a sí misma).

Si desechamos los espejos y el resto de ejemplos citados como seres conscientes, y en cambio aceptamos que el ser humano es el ser más consciente conocido, siendo el resto de los animales también conscientes, aunque más levemente, llegamos a que la característica fundamental del individuo consciente no es el ser autorreferente, sino el sentir esa autorreferencia, y la clave para comprender el sentir no está en aquello que se siente, que puede ser descrito mejor o peor, sino en quién lo siente, es decir, en la la existencia de una individualidad receptora.

Haber elegido como segundo ejemplo de estudio dentro de "¿Qué es la vida?", la pregunta "¿Es posible la cooperación?" también requiere de una explicación. Se trata del estudio de la viabilidad de distintas estrategias que incluyen interacción entre individuos, como son las estrategias egoístas, cooperativas o altruistas. Hago hincapié en la búsqueda de la viabilidad de la cooperación porque implícitamente es lo que se está tratando de encontrar en la mayoría de los estudios. No es de extrañar, ya que la cooperación, si se cumplen ciertos requisitos, ofrece los mayores beneficios potenciales tanto a grupos como a individuos.

Si bien parece obvio que todos los investigadores pretenden mantener una objetividad que les permita predecir la evolución de las estrategias en un grupo sin que en ello afecten sus preferencias personales, también es evidente que la gran mayoría tratan de hacerlo con el objetivo de aumentar en lo posible el beneficio de futuras o hipotéticas comunidades, y me parece justo destacar esta realidad.


Discretización del tiempo en los autómatas

Hay un aspecto de la definición clásica de autómata celular que el programa "Hormigas y Plantas" de la aplicación "Ejemplos de Vida" no cumple. Típicamente, un autómata celular es una máquina de estados finitos que consiste en una cuadrícula de células en la cual la evolución de cada célula depende de su estado actual y de los estados de sus vecinas inmediatas. Se dice que en un autómata celular todos los autómatas simples o células pasan a la siguiente generación al mismo tiempo y según un mismo algoritmo de cambio que puede hacer variar su estado dentro de un conjunto limitado de estados.

En el programa de "Hormigas y Plantas" no ocurre exactamente así. Vamos a ver por qué, ya que la razón permite sacar a relucir el asunto de la naturaleza del tiempo en los autómatas. Se dice que en un autómata "todas las células pasan a la siguiente generación al mismo tiempo". Para que fuera posible hacer esto de forma literal, es decir, para que dos sucesos se produzcan, "a la vez" de forma literal, el tiempo debe tener una naturaleza discreta. Es decir, es necesario que el tiempo esté formado por ciertas unidades indivisibles. Si la precisión con la que se mide un intervalo de tiempo puede ser infinita, no parece posible controlar que dos acciones se den a un mismo tiempo, con infinita precisión.

Una discusión muy similar es la que propuso el filósofo griego Zenón en sus conocidas paradojas (o aporías), en torno al movimiento, como la de Aquiles que nunca alcanza a la tortuga, o la de la flecha inmóvil. Zenón negó la posibilidad del movimiento de una flecha en vuelo, ya que en cada instante la flecha aparece "congelada". Efectivamente, si la flecha tuviera que recorrer un número infinito de posiciones intermedias, la flecha nunca podría moverse. "Si puede hacerlo", - rebatiría un matemático-. "Una flecha puede recorrer infinitas posiciones intermedias, con la condición de que únicamente se detenga un tiempo infinitesimal en cada una de las posiciones". Cierto, pero ¿son el infinito y el infinitesimal conceptos reales de nuestro universo, o tan solo abstracciones inexistentes?

No se trata de responder a estas preguntas, ya que están formuladas en términos de nuestro propio universo, que no controlamos. La discusión de Zenón estaba referida al universo del que formamos parte y del cual no somos dueños. Sin embargo, aquí se trata de dotar de movimiento a seres virtuales dentro de un universo virtual. Ahora nosotros sí somos los dueños, sí somos los constructores del universo virtual, y como tales, nos encontramos exactamente con el problema que Zenón anticipó antaño: "no podemos crear movimiento en un universo si éste no posee unidades discretas de tiempo". A esta afirmación habría que añadir la puntualización del matemático: "a no ser que dispongamos de infinitos e infinitesimales".

Así ocurre, en efecto: no disponemos de infinitos ni de infinitesimales. Por tanto, en la construcción de autómatas, se discretiza el tiempo, y se definen lo que serán "unidades indivisibles de tiempo" dentro del universo de los autómatas.

Estas "unidades indivisibles de tiempo" no tienen porqué serlo para nosotros, pero sí lo serán para los habitantes de ese mundo virtual. Es decir, si una autómata pudiera preguntarse e investigar sobre la naturaleza de su propio tiempo, llegaría a la conclusión de que éste es discreto.

Todo lo anterior se puede resumir en el hecho de que la expresión "todas las células pasan a la siguiente generación al mismo tiempo" no se refiere a una apreciación estricta, sino a otra de índole práctica, que viene a significar "todas las células se comportan como si pasaran a la siguiente generación al mismo tiempo", lo que implica que "las células existen en un universo cuyo tiempo tiene una naturaleza discreta (compuesta por elementos indivisibles)".

Concluyendo, dados n autómatas o células

A1, A2, ..., An

que se encuentran en un "instante" o unidad mínima de tiempo T=k en los siguientes estados:

E1(T=k), E2(T=k), ..., En(T=k)

se trata de que los nuevos estados de cada uno de los autómatas en el siguiente "instante" T=k+1:

E1(T=k+1), E2(T=k+1), ..., En(T=k+1)

se calculen en función de los estados de los autómatas en el instante anterior T=k

E1(T=k+1) = f(E1(T=k), E2(T=k), ..., En(T=k))
E2(T=k+1) = f(E1(T=k), E2(T=k), ..., En(T=k))
E3(T=k+1) = f(E1(T=k), E2(T=k), ..., En(T=k))
...
En(T=k+1)=f(E1(T=k), E2(T=k), ..., En(T=k))

En la práctica, el autómata se implementa en un computador monoprocesador, o es resuelto con papel y bolígrafo por una única persona. En estos casos, el método consiste en calcular los nuevos estados de las células, almacenándolos en una memoria temporal, pero sin ser utilizados todavía. Una vez que se ha finalizado el cálculo de los nuevos estados para todas las células, entonces se modifican los estados de todos los autómatas, simplemente copiándolos de dicha memoria temporal. De esta forma se consigue que todas las células cambien de estado "a la vez".

Aquí viene el problema. No siempre es posible hacer esto. Hay casos en los que los estados futuros de dos autómatas son incompatibles. Si ambos se calculan por separado, y entran en conflicto ¿qué estado elegir?. Esto ocurre con el espacio, es decir, cuando uno de los componentes del estado de un autómata es la posición. Vamos a ver cómo, si las posiciones de los autómatas pueden variar en el tiempo, una de las soluciones es que todas las células no pasen a la siguiente generación al mismo tiempo.

Imaginemos dos autómatas simples móviles, cada uno ocupando su correspondiente celda, separados por una celda vacía. En cierta generación ambos autómatas "ven" la celda vacía, así que pueden decidir moverse a la misma posición, con lo que en la siguiente generación existirá el conflicto de decidir cual de los dos tiene derecho a ocupar la celda.

En realidad, no es necesario que los autómatas sean realmente "móviles". Podemos tener una rejilla de autómatas inmóviles y llamar "posición espacial" al estado de cada autómata, incluyendo la restricción de que dos autómatas no pueden encontrarse en el mismo estado.

El problema existe, tanto si el autómata es resuelto por una o cien personas, por uno o cien computadores. Se pueden tomar todo tipo de decisiones para resolver el conflicto:

  1. Permitir ambas acciones, haciendo posible la convivencia de dos autómatas en una misma celda.
  2. Permitir ambas acciones, haciendo desaparecer al primer autómata al ser ocupado por el segundo.
  3. Impedir ambas acciones: al detectar la segunda acción, inhabilitar la primera, deshaciéndola.
  4. Impedir el movimiento únicamente al segundo autómata, es decir, romper la norma según la cual "todas las células se comportan como si pasaran a la siguiente generación al mismo tiempo" y hacer que el segundo autómata detecte que el primero ya se ha movido, y prohibir su movimiento.

La primera la descarto por ignorar precisamente la restricción que se pretende implementar y que causa el conflicto. La segunda parece un poco arbitraria, ya que produce una desaparición de autómatas difícil de compensar con creaciones, pero podría ser interesante de investigar. La tercera parece tener sentido, se podría decir que los autómatas "chocan y rebotan", pero comparada con la cuarta es una complicación innecesaria, aunque también puede ser de gran interés en otros trabajos.

En el programa "Hormigas y Plantas" la decisión tomada ha sido esta última, por parecer la más consistente con el objetivo de la simulación y por su sencillez en programación, ya que para aplicar este método basta con utilizar, en vez de dos memorias, una sola, calculando siempre los nuevos estados en función de la información contenida en esta memoria.

La decisión por tanto es romper la norma según la cual "todas las células se comportan como si pasaran a la siguiente generación al mismo tiempo". Lo interesante es que con esta opción, si una autómata pudiera preguntarse e investigar sobre la naturaleza de su propio tiempo, seguiría llegando a la conclusión de que éste es discreto, dividido en "instantes", y que entre uno y otro "instante" se suceden "simultáneamente" multitud de acontecimientos en todo su universo (todo esto, recordemos, desde el punto de vista del autómata). Esto es debido a que el tiempo del procesador se reparte secuencialmente entre toda la "materia" existente en el universo virtual, y ni los autómatas ni las máquinas construidas por ellos podrán nunca hacer observaciones durante el tiempo en que no se están "ejecutando", con lo que todo el entorno, desde el punto de vista del autómata, podrá cambiar "de golpe", a intervalos discretos, aunque en realidad lo haya hecho secuencialmente. Efectivamente, para los autómatas existen "instantes" pero el comienzo y fin de cada "instante" es diferente para cada autómata.

Es más, podemos imaginarnos a los autómatas intentando descubrir qué norma se ha utilizado para solucionar el problema de dos estados futuros incompatibles. Podrían realizar un experimento parecido a este. El autómata A y el autómata B (azules), separados por una unidad mínima de espacio, se coordinan para intentar moverse a la misma posición que existe entre ambos en la misma unidad mínima de tiempo. Para ello, se envia una señal (autómata naranja móvil) que se divide, rebota, y llega a a ambos simultáneamente.

Sería necesario disponer de las siguientes propiedades:

  • Existe un movimiento en 8 direcciones
  • Las celdas negras son obstáculos, autómatas inmóviles
  • Los autómatas naranjas rebotan en los obstáculos
  • Los autómatas naranjas pueden "empujar" a los azules
  • Cuando un autómata naranja pasa entre dos rojos, se descompone en dos autómatas que modifican su dirección en un octavo de vuelta, cada uno en un sentido.

  • La analogía de todo esto con nuestro universo se hace patente en la frase ni los autómatas ni las máquinas construidas por ellos podrán nunca hacer observaciones durante el tiempo en que no se están "ejecutando". Trasladado a nuestra realidad, es decir, observando nuestro universo como un autómata, diríamos que ni los hombres ni las máquinas construidas por ellos podrán nunca hacer observaciones durante el tiempo en que no se están "ejecutando". Tal vez, estas reflexiones sirvan para aventurar hipótesis que describan nuestro propio tiempo y espacio, de acuerdo con las creencias actuales.


    Autómatas y Azar: el Big Bang, la física cuántica y las depresiones

    Habitualmente se utilizan términos como "azar", "estocástico", "aleatorio" y "caótico" con un sentido un tanto confuso, por lo que voy a comenzar con varias definiciones, de forma que quede claro el sentido de los términos que voy a utilizar posteriormente.

    Predicción: Afirmación acerca de un suceso futuro, asignando una confianza total a la afirmación.

    Esperanza o Predicción Estadística o Predicción en forma de probabilidad: Afirmación acerca de un suceso futuro en forma de probabilidad.

    Sistema caótico: aquel tan sensible a las condiciones iniciales que pequeños cambios en el estado inicial se traducen en grandes cambios en el estado final

    Aleatorio: Impredecible, excepto en forma de probabilidad o esperanza. Para ser impredecible, debe ser sin causa. Sin embargo, el opuesto no es rigurosamente cierto: podría ser sin causa y predecible (aquello sin causa e inmutable). Sin embargo, en este último caso el concepto de causa se torna borroso: aunque el suceso no tenga una causa, al ser predecible, es posible identificar como causa el requisito indicado por su predicción.

    Pseudoaleatorio: con causa, pero aparentemente impredecible, o impredecible en la práctica debido a la propagación de errores iniciales propia de un sistema caótico, pero predecible en forma de probabilidad o esperanza.

    Determinista: con una causa, y por tanto, teóricamente predecible, si se conociera la causa. Suceso determinista es aquel que es efecto de alguna causa, producido como consecuencia de otro, cuya aparición es regida por una ley.

    Proceso aleatorio: proceso cuyo resultado es impredecible, excepto en forma de probabilidad

    Proceso pseudoaleatorio: proceso cuyo resultado es aparentemente impredecible, excepto en forma de probabilidad

    Proceso determinista: Proceso en el que se suceden causas y efectos consecutivos. Proceso formado por sucesos deterministas, y por ello, su resultado es teóricamente predecible. En estas definiciones "Teóricamente predecible" quiere indicar que sería posible realizar una predicción cierta del resultado del proceso, suponiendo una disponibilidad ilimitada (infinita) de recursos del universo (tiempo, espacio, materia, energía).

    Algoritmo: Procedimiento, secuencia de pasos

    Finito: Con un final, No infinito.

    Cadena aleatoria: Cadena para la que no existe ningún algoritmo finito que comprima su descripción. Se ha de notar que un proceso aleatorio no siempre genera cadenas aleatorias, y puede generar cadenas deterministas. También ocurre que un proceso pseudoaleatorio, como una función de azar de ordenador, puede generar cadenas deterministas.

    Cadena pseudoaleatoria: cadena para la que aparentemente no existe ninguna forma de comprimir su descripción

    Cadena determinista: Cadena para la que existe un algoritmo finito capaz de comprimir su descripción, de forma que a partir de la cadena original y el algoritmo es posible obtener la cadena comprimida y por otra parte, a partir de la cadena comprimida y el algoritmo es posible obtener la cadena original.

    Se ha de notar que un proceso aleatorio no siempre genera cadenas aleatorias, y puede generar cadenas deterministas. También ocurre que un proceso pseudoaleatorio, como una función de azar de ordenador, puede generar cadenas deterministas.

    Henri Poincaré trató el tema del determinismo en 1903 en su libro Ciencia y Método: "Si conociéramos con precisión infinita las leyes de la naturaleza y la situación del universo, podríamos predecir exactamente la situación de este mismo universo en un instante posterior". Una predicción es una clasificación en la que interviene el tiempo, y puede tener una forma declarativa: "Hoy va a llover" o condicional: "Si llega Juan, María se marchará". Si el universo no fuera más que partículas en movimiento, entonces cualquier suceso (movimiento de partículas) podría predecirse de forma condicional en función de otros sucesos anteriores (más movimientos de partículas).

    Aparentemente esto es cierto. Para cualquier acontecimiento parece existir una causa, pero se pueden citar tres excepciones a esta regla:

    • El Big Bang
    • Los procesos cuánticos
    • Las depresiones

    El Big Bang se conoce como el origen de nuestro universo, del tiempo y del espacio, la primera causa o la causa de todo lo demás. En la cadena de asociaciones, y de acuerdo con las teorías actuales, llegaríamos al primer instante del universo. Pero entonces, ¿cuál es la causa del Big Bang? Siguiendo un razonamiento similar a este, San Agustín identificó a Dios como la causa primera, como el único acontecimiento sin causa. Es decir, la causa del Big Bang sería Dios. Para no entrar a discutir el concepto de Dios, basta con reescribir la afirmación como "La causa del Big Bang está fuera de nuestro universo", ya sea esta causa Dios o una fluctuación en el contínuo de vete a saber que cosa que habita fuera de nuestro universo.

    A fin de cuentas, el Big Bang tal vez tuviese una causa. Lo que es seguro es que esa causa no podía encontrarse en nuestro universo, ya que todavía no existía (y ni siquiera tiene sentido hablar de un todavía, puesto que no "existía" el tiempo).

    La definición que se ha dado de aleatorio, así como el resto de definiciones, hacen referencia implícita a nuestro universo. La definición se podría reescribir como:

    Aleatorio: sin causa en nuestro universo, y por tanto, teóricamente impredecible en nuestro universo, excepto en forma de probabilidad

    La segunda excepción son los procesos cuánticos, para los que se ha demostrado, no sin polémica, que son impredecibles, y por tanto auténticos procesos aleatorios.

    En cuanto a las depresiones, me refiero al fenómeno psicosomático, no a los accidentes geográficos. En cierto momento la definición propuesta para el término de depresión exigía una alteración del ánimo sin causa. En lo que sigue me refiero a esta acepción del término y no a otras posteriores. Según esta definición, un estádo anímico decaído, debido a un acontecimiento como la muerte de un familiar, no se le considera depresión, sino una reacción normal, evolutivamente estable, útil, una petición de ayuda. Cuando no se puede encontrar razón es cuando se habla de depresión. Se trata de una definición paradójica. Si el enfermo conociese que el origen de su depresión es la ausencia de ciertas sustancias, y que esta ausencia está provocada a su vez por, -por ejemplo- la inhalación de ciertas partículas que se desprenden de ciertos tejidos bajo unas condiciones de humedad determinada, etc. etc., este conocimiento sólo podría hacerlo mejorar de su enfermedad, ya que ¿por qué entristecerse por unas cortinas?.

    La depresión debería entonces redefinirse (o tal vez se hizo ya) como la enfermedad provocada por la ausencia de ciertas sustancias, cuando ésta falta es causada a su vez por fenómenos físicos en contraposición a los psicológicos, sociales, afectivos, etc. Como la consecuencia negativa de la depresión que se intenta evitar es la psicológica, (que es a su vez fuente de los trastornos físicos), que está siendo atacada por un agente físico (la partícula de polvo de la cortina), la barrera puede estar en el mundo físico (evitar esas cortinas) o en el psicológico (saber que se trata de unas cortinas y desvirtuar -uno mismo, no los demás, claro está- su efecto).

    Existe un paralelismo entre la frase de F.Tejedor "La vida es corta porque uno se da cuenta tarde" y este posible cierto alivio de la depresión. En la frase de Tejedor existe la paradoja de que si uno se da cuenta de que la vida es corta, y actúa en consecuencia, la vida dejará de ser corta para esa persona. Por tanto, la forma de conseguir que la vida no sea subjetivamente corta es precisamente reconocer su brevedad. Pero ambos procesos se suponen graduales y simultáneos. Si la vida, deja de ser corta, porque nos vamos dando cuenta de su brevedad ¿Cómo nos hemos podido dar cuenta de esa brevedad y negarla al mismo tiempo? De la misma forma, un método de aliviar la depresión podría ser conocer su causa, pero entonces dejaría de ser depresión según la definición que exige la falta de causas.

    Las principales analogías entre las simulaciones de vida artificial y nuestro universo en cuanto al azar serían:

    1. El Big Bang corresponde con la inicialización "al azar" de las variables del modelo. A veces se fijan los parámetros conscientemente, en otras se usa una función pseudoaleatoria. En cualquier caso, la decisión está fuera del universo de la simulación. El programador se muestra efectivamente como "dios" y causa del "big bang" de la simulación.

    2. Los procesos cuánticos corresponden con aquellos detalles que se considera que no es necesario simular, sustituyéndose por una función aleatoria. De la misma forma que los procesos cuánticos son impredecibles para nosotros, los aspectos pseudoaleatorios de la simulación deberían ser impredecibles para los agentes que habitan en esa simulación. En la analogía, los procesos cuánticos que los hombres consideramos impredecibles corresponden con los aspectos de la simulación que dependen directamente de la función pseudoaleatoria. La función pseudoaleatoria de una simulación solo será buena si se muestra como realmente aleatoria para las entidades simuladas, de forma que no puedan predecirla ni explicita ni implicitamente. Por ejemplo, si estamos estudiando fenómenos de cooperación entre entidades simuladas que compiten por cierta comida que surge "al azar" en un espacio bidimensional según una distribución uniforme, las entidades no deberían ser capaces de predecir dónde va a aparecer el próximo elemento de comida (a no ser que precisamente se busque este comportamiento, como es obvio). Ahora bien ¿Es posible estar seguros de que, implicitamente, las entidades no realizan cierto tipo de predicción, no a nivel individual, sino como grupo? Es decir, ¿podemos estar seguros de que los comportamientos cooperativos que estamos estudiando no están influidos por el hecho de utilizar una función pseudoaleatoria en vez de una realmente aleatoria?

    3. Utilizando la definición que restringe a la falta de causas, las "depresiones" de las entidades de las simulaciones corresponderían con acciones por nuestra parte, negativas e impredecibles para ellas. Como programadores, daríamos a las entidades problemas (podríamos aplicar también la versión positiva, y darles ventajas) de tal forma que las entidades sean incapaces de encontrar su origen.


    Una definición de vida más restrictiva

    No existe una única definición de lo que es la vida; existen multitud de ellas (vida basada en el carbono, vida como procesos efectuados por seres vivos, definición termodinámica). Y ocurre que según vamos aplicando cada definición, asignamos la etiqueta de "ser vivo" a un subconjunto cada vez distinto del conjunto de todas las entidades del mundo real.

    La mayoria de las definiciones de vida incluyen como seres vivos a entidades que no se consideran seres vivos según el criterio popular. La definición que yo propongo no inluye más entidades que las admitidas por el criterio popular. En cambio, excluye algunas. Si algunos autores en sus definiciones se creen con el derecho a incluir el fuego, un automóvil, o un programa de ordenador como seres vivos, en identica lógica yo me creo con el derecho de excluir de la definición a algunos de los que son seres vivos según el criterio popular.

    Según la definición que propongo, ser vivo es "la entidad que siente placer y/o dolor", o de una forma más desarrollada, "aquella entidad que posee un mecanismo de asignación de recompensa y/o castigo tal que le produce sensaciones de placer y/o dolor".

    Para distinguirla de otras, parece adecuado asignarle una etiqueta. Para recibir el califativo de ser vivo sensible no basta con ser capaz de recibir y procesar estímulos. No se trata sólo de eso; se trata de transformar esos estímulos en placer y/o dolor. Ser vivo sensible no es aquel ser que se comporta "como si" sintiera placer y/o dolor. Ser vivo según esta definición es aquel que realmente siente placer y/o dolor. La razón de ser del "y/o" es admitir la interesante hipótesis desarrollada por José Antonio Jáuregui en El ordenador cerebral, segun la cual podría no existir el placer, y sólo distintos grados y tipos de dolor.

    Esta definición presupone implicitamente la falsedad del solipsismo aplicado al aspecto concreto de los sentimientos (placenteros o dolorosos) de los demás. Es decir, si un ser humano se propone clasificar los objetos del universo según cumplan o no esta definición, en primer lugar podría llegar a la conclusión de que él mismo es un ser vivo sensible, ya que es capaz de sentir placer y/o dolor y considera que esto no necesita demostración. Cuando trate de aplicar la definición a otro ser humano, probablemente llegue a la misma conclusión. El problema es que parece imposible estar seguro de que el otro ser humano existe y no es producto de la imaginación, un sueño o alucinación. Esto parece poco probable, pero aún suponiendo la existencia del otro, podría ser muy difícil distinguir si se trata de un ser humano o de un robot, -un artefacto que entre otras cosas trata de imitar a los seres humanos-, idea que ha desarrollado profusamente Isaac Asimov.

    Por ahora no conozco mejor solución que aplicar el mismo criterio que se utiliza para resolver el solipsismo en su faceta universal: "No estoy seguro de que el resto del universo exista, pero supongo que es más probable que las cosas sean lo que parecen, frente a que no sean lo que parecen, por tanto, supongo que el resto del universo existe y no es una alucinación mía". Siguiendo el mismo razonamiento: "Aquellas entidades que aparentemente poseen sentimientos de placer y dolor, probablemente sean seres vivos sensibles". El indicador fundamental de ser vivo sensible sería la capacidad de comunicar el placer y el dolor (mediante gestos, sonidos, palabras) y esto hace patente que esta definición es totalmente subjetiva. Un "hombre que viniese de marte" podría tener serios problemas en clasificarnos a nosotros como sensibles, y viceversa.

    A pesar de todos sus inconvenientes, esta definición de ser vivo es útil porque profundiza en el aspecto del efecto real, sobre el otro, de nuestras propias acciones u otros sucesos, y no sólo interpreta la información del otro en función de su efecto sobre uno mismo. Es decir, la complejidad de las relaciones entre entidades es tal que no basta con fijarse en "el efecto de mi acción sobre mí" o en "lo que parece que produce mi acción sobre el otro", sino en "lo que realmente siente el otro debido a mi acción". Dados tres entes: "yo", "ente1" y "ente2", siendo "yo" y "ente1" seres vivos sensibles, y "ente2" una entidad que se comporta como si sintiera, si "yo" no observa diferencia entre la relación con "ente1" y "ente2" en este aspecto, es cierto que en cuanto a ser sensible, para "yo" no existe diferencia entre "ente1" y "ente2". Sin embargo, si de todos modos la diferencia existe, puede ser interesante detectarla por varias razones:

    • La simulación de sentimiento pudiera fallar y ser descubierta. El comportamiento de la entidad pudiera ser en el futuro distinta a la de un ser que realmente sintiera y por tanto dejaría de serlo, y sería interesante poder anticiparse a esto.
    • Aunque nunca fallara la simulación de sentimiento, si realmente admitimos que existe una diferencia de base, entonces ésta podría manifestarse a otros niveles. Por ejemplo, podría afectar a la super-entidad que forman todos los seres vivos sensibles. En una analogía, las células de un organismo tratan de detectar otras células del mismo organismo, diferenciandolas de cuerpos extraños. Las células a veces se equivocan, ya que algunos agentes extraños pueden ocultar su verdadera naturaleza. Esto puede no afectar directamente a la célula que se encuentra con el agente extraño, pero sí al organismo y finalmente a todas sus células.
    • Desde un punto de vista ético, si nuestra intención es evitar el sufrimiento a todas las entidades capaces de sentirlo, esta definición marca una jerarquia entre los objetos del mundo real en cuanto al respeto (que incluye la no agresion, la no destruccion) que les debemos tener. En principio se podria tener respeto por todo el universo, cosas vivas y no vivas, pero en caso de conflicto, sería necesario conocer qué seres son capaces de sentir esa posible agresión, esa posible falta de respeto.

    Si nuestra ética trata de respetar a los seres vivos según una definición estrictamente funcional, se equipararía el respeto hacia un ordenador con el respeto hacia otra persona. Una vez que se plantea esto, es lógico que brote un gran interés en cuanto a si es etico apagar el ordenador que ejecuta una simulacion de vida artificial, más cuando la definición funcional se encuentra muy extendida en los entornos científicos.

    Sin embargo, si nuestra ética trata de respetar a los seres vivos según la definición de ser vivo sensible, se asignará una mayor prioridad al respeto a seres humanos y otros animales frente a ordenadores.

    En resumen, la cuestión está abierta, y hay dos grandes problemas:

    • Alguien realiza un programa de ordenador especializado en simular sentimientos. En principio este programa no tendría por qué tener más sensaciones reales de placer y dolor que cualquier otro programa que tratase de simular cualquier otra cosa. Pero tal vez nos engañe.
    • Aunque los programas de ordenador no den muestras de poseer sentimientos, podrían tenerlos. Lo mismo se puede decir de las plantas o de las rocas. Puede que algun dia se demuestre que los seres de una simulación de vida artificial por ordenador, o la simulación completa entendida como un ser, era un ser vivo y realmente sentía. Puede que algun dia se demuestre que el mar, entendido como un todo, es un ser vivo sensible.
    Ambos problemas poseen la enorme dificultad de que en cualquier caso, aunque en principio se avance en métodos de identificación de seres vivos sensibles, en última instancia y dado que se trata de un caso particular de solipsismo, será imposible demostrar la validez de nuestros métodos. Como solución parcial, tenemos el criterio de que "en principio, las cosas son lo que parecen", que podemos aplicar a aquello que parece estar vivo, y posteriormente tratar de reunir el máximo de información relativa esta entidad, intentando falsar (encontrar indicios de la falsedad) de esta afirmación.

    En cuanto a la definición de vida, existen al menos los siguientes puntos de vista:

      a) La vida son sus procesos
      b) La vida son procesos y algo más. Ese algo más es:
        b1) Una configuración en cierto nivel material insustituible por otro que realice la misma función
        b2) El alma
        b3) Los sentimientos (reales, no simulados)
      c) Depende del nivel del observador. Une a) y b3) Para nosotros la simulación no tiene sentimientos y no está viva pero para un posible ser superior, es nuestro universo el que es una simulación, y nosotros los que no tenemos sentimientos reales.


    El Problema de la simplificación

    Un problema que tienen las simulaciones de vida artificial es que no sabemos si son o no modelos excesivamente simplificados de la gran complejidad del mundo real. Entre otras cosas esto es debido a que no se puede determinar cuándo una función pseudoaleatoria es lo suficientemente buena como para aceptar los resultados obtenidos en una simulación. Por ahora lo único que sabemos es que si usamos una función pseudoaleatoria mala, fácilmente predecible, no podremos confiar en los resultados. En general, lo que se hace es precisamente eso: no confiar en los resultados.

    Las funciones pseudoaleatorias se usan en Vida Artificial para evitar la modelización de aquellos aspectos que resulta demasiado complejo representar. Las funciones pseudoaleatorias son necesarias, porque en general siempre hay algún aspecto que resulta demasiado complejo representar.

    Si vemos el modelo como una caja negra que nos ofrece un resultado, como por ejemplo una predicción, es posible obtener éste sin utilizar funciones pseudoaleatorias, pero esto no sería una simulación. En cambio, si queremos que el modelo internamente se asemeje lo mas posible a la realidad, si queremos representar los aspectos internos, deberemos utilizar funciones pseudoaleatorias que sustituyan precisamente los comportamientos que por razones prácticas no pueden ser representados de otra forma en el modelo.

    Para ello deberemos analizar los aspectos complejos de forma estadistica, implementandolos mediante distintas funciones de probabilidad.

    Modelizar situaciones de forma estadística es un proceso mental que todos hacemos en nuestra cabeza a diario. Por ejemplo, al decir que hay un 50% de probabilidades de tener un niño en vez de una niña. Cuando no podemos conocer los complicados mecanismos internos de un proceso, como es la determinación (se entiende, natural) del sexo, acudimos a un cálculo de probabilidades, es decir, asignamos una confianza a un suceso en función del número de veces que se ha producido anteriormente. Por ejemplo, el director de la maternidad obtiene de la observacion el conocimiento de que el 50% de los nacimientos suelen ser niños. Con 100 partos inminentes, y suponiendo que la atención a los recien nacidos fuera distinta según el sexo, el director puede elucubrar si el centro posee los recursos necesarios para atender a "50 niños y 50 niñas"; probablemente "48 niños y 52 niñas" o algo asi como "32 niños y 68 niñas", pero casi seguro que no "97 niños y 3 niñas". Para hacer estas reflexiones el director está usando mentalmente un generador de azar. Para 100 nacimientos, la función de distribución de la probabilidad de "numero de niños" es una función de distribución normal (con forma de campana de Gauss) de media 50. El generador de pseudoazar será una función que devolverá valores entre 0 y 100, siendo el 50 el más probable, y el 0 y el 100 los menos probables.

    En simulación, dado que una precisión infinita no es posible, es decir, ya que el modelo no es una copia exacta, sino una simplificación, tenemos que trabajar con un margen de error. Si el sistema a estudiar tiene naturaleza caótica, es decir, si ocurre que pequeñas diferencias en las condiciones iniciales pueden provocar grandes errores en el resultado final, entonces no es posible confiar en el modelo.

    Resumiendo, los problemas son:

    1.- Determinar si es aceptable establecer un nivel por debajo del cual se sustituye la simulación de los procesos reales que se están estudiando por una "caja negra" o función aleatoria o pseudoaleatoria que produce un comportamiento estadísticamente similar al que se da en la realidad hacia el resto del modelo. Es decir, se trata de decidir si es aceptable o no usar una función aleatoria o pseudoaleatoria. Tal vez no sea aceptable, o tal vez no sea posible decidir si es aceptable o no.

    2.- En el caso de no ser aceptable o suponer que no es aceptable, el modelo debería ser una copia identica del original, hasta el nivel de granularidad máximo (partículas elementales, elementos constructores de todo lo demás). En el caso de ser aceptable o suponer que lo es, el problema es definir dónde está ese nivel, es decir, en que casos vamos a usar la función aleatoria o pseudoaleatoria.

    3.- Una vez definido en que casos vamos a usar la función pseudoaleatoria, el tercer problema es definir las caracerísticas de esa función para poder utilizar una lo suficientemente buena. En el caso de no poder decidirlo, lo mas seguro sería, o bien usar la mejor función de que se disponga, o utilizar una en la que intervengan procesos cuánticos, que de acuerdo con las teorías actuales son auténticos generadores de azar.


    Referencias

    Libro

    Herrán Gascón, Agustín de la. 1998. La conciencia humana. Hacia una educación transpersonal. Ed. San Pablo.

    Libro

    Jáuregui, José Antonio. 1990. El ordenador cerebral. Editorial Labor.

    Libro

    Adams, Douglas. 1983. "Guía del Autoestopista Galáctico". Editorial Anagrama.

    Libro

    Hofstadter, Douglas R. 1987. Gödel, Escher, Bach. Un eterno y gracil bucle. Tusquets Editores & CONACYT.

    Libro

    DIAZ, JosuKa. Departamento de Lenguajes y Sistemas Informáticos. 1996. Teoría de Autómatas y Lenguajes Formales. Universidad de Deusto.

    Libro

    Gell-Mann, Murray. 1994. El Quark y el Jaguar. Aventuras en lo simple y lo complejo. Tusquets editores. Serie metatemas.

    Internet

    https://www.redcientifica.com/gaia/auto_c.htm
    Autómatas Celulares. Aranguren, Ricardo; Fleifel Tapia, Farid; Herrán Gascón, Manuel de la

    Internet

    https://www.redcientifica.com/gaia/dhdm_c.htm
    Dioses, Hombres, Demonios y Máquinas. Rosa Aguilar, Luciano de la

    Libro

    Prata, Stephen. 1993. "Vida Artificial". Ed. Anaya.

    Internet

    http://www.uv.es/~buso
    Página web de Vicent Castellar-Busó Vicent.Castellar@uv.es. Departament de Matemática Aplicada, Universidad de Valencia.

    Libro

    Wiener, Norbert. 1988. Dios & Golem, S.A. Siglo XXI editores. México, D. F. 1988.

    Internet

    http://rev.upv.es/conjetur.htm
    Morey, Miguel. Conjeturas sobre Zenon de Elea.

    Artículo

    Chalmers, David J. El problema de la consciencia. Revista Investigación y ciencia, Febrero 1996.

    Libro

    Dawkins, Richard. 1994. El gen egoísta. Salvat Ciencia.



    Sobre el autor


    Manuel de la Herrán nació en Bilbao en 1971. Es ingeniero informático y ha trabajado en varias empresas desarrollando tecnología en Internet y dirigiendo sus departamentos técnicos (Okté, Cocotero, EnLaPrensa). Ha escrito un libro en forma de ensayo, así como numerosos artículos sobre Evolución, Computación Evolutiva, Algoritmos Genéticos, Inteligencia Artificial, Datamining y Datawarehouse, OLAP y Bases de Datos Multidimensionales, Bases de datos Oracle y Programación en Internet. Ha sido profesor de la Universidad de Deusto y ha participado en la creación de proyectos como IIEH, Gaia (finalista iBest 2000), y REDcientífica (Premio Nacional Sociedad de la Información).





    Documentos relacionados




    © Copyright 1997-2003 Manuel de la Herrán Gascón.
    © Copyright 1997-2003 REDcientífica.
    Todos los derechos reservados.


    [Evaluar este artículo]








                  Misión de REDcientífica              Condiciones de publicación              E-mail de contacto



      Bookmark and Share