http://www.redcientifica.com/gaia/defin3_c.htm
Definiciones P-Z
Paradigma:Ejemplo, método, técnica, estrategia.
[ Volver al Indice ]
Pizarra:Estructura global donde se almacenan datos manejados por un conjunto de agentes, de forma que se facilita la cooperación entre agentes a pesar de su distinta naturaleza.
[ Volver al Indice ]
Problema:Un problema es un deseo de cambio. Un problema requiere de:
- una entidad capaz de sentir desequilibrios, capaz de desear lo que no es realidad.
- una realidad capaz de ser diferente a lo que la entidad desea.
Un problema es un desequilibrio entre la realidad y lo deseado. Cuando lo deseado no sólo es algo implícito al estado de la entidad (por ejemplo, la entidad tiene hambre, o la entidad necesita más luz del sol), sino explícito, es decir, está representado en algún lugar, está almacenado (por ejemplo, en un papel, en un ordenador, en el cerebro de la entidad que tiene hambre), tenemos otra "realidad" donde aplicar nuevamente el concepto de problema.
El problema se soluciona, o el desequilibrio desaparece cuando:
- la entidad consigue modificar la realidad según su deseo
- la entidad deja de desear ese cambio de realidad
- la entidad desaparece, muere (es un caso particular del anterior)
Lor seres vivos pueden verse como "solucionadores de problemas" o "máquinas que desean cosas", aunque entonces sería dificil diferenciar cualquier interacción con el entorno con la acción de solucionar un problema, y entraría en la clasificación de ser vivo, por ejemplo, el fuego.
Tipos de Problemas:
- Cambiante: requiere aprendizaje
- Estático: permite planificación
Cualquier problema se puede enfocar como un problema de "búsqueda" de "optimización" o de "predicción". Un problema es predecir la salida ante la entrada, o buscar la entrada que produce cierta salida, o la entrada que produce el máximo valor de la salida.
Vamos a ver los casos mas simples de resolución de probelmas.
Desde el punto de vista del individuo que "tiene el problema" las entradas son sus acciones y los sentidos sus salidas. El ser se siente "bien" o "mal", tiene frío o no, y por otra parte puede realizar acciones. Expresado en una gráfica:
Esta gráfica no tiene en realidad dos ejes, sino muchísimos mas, pero como eso no es muy facil de dibujar, vamos tener que imaginarlos viendo solo hay una entrada y una salida.
Casi siempre se considera el tiempo como una variable no modificable, que se incrementa constantemente. Vamos a pensar que es una mas de las acciones posible, es decir, que podemos transaladarnos de un punto a otro del tiempo cuando lo deseemos, y sin embargo, optamos por incrementar su valor constantemente.
En un momento dado el ser siente algo, se encuentra bien o mal.
Las sensaciones del ser pueden modificarse, aunque no haga nada (por ejemplo, cada vez hace mas frío)
Suponiendo que el eje x es ahora el tiempo, la sensacion se va modificando en el tiempo. Recordemos que hemos supuesto que el tiempo es modificable pero en principio lo mantenemos con incrementos constantes, y por tanto el tiempo es una más de las acciones posibles y por eso se representa en el eje de acciones.
La salida puede variar aunque no realizemos acciones: esto representa un problema de predicción. Saber cual será el próximo punto de la salida.
Hasta ahora el individuo no ha hecho nada. Ahora, por fin, realiza una acción (ignoramos el tiempo); después de realizarla, observa sus efectos; ante ella obtendrá una salida: tenemos un punto.
Ahora el razonamiento consiste en convertir ese punto en una recta horizontal: si una vez hice algo y lo vuelvo a hacer, es más probable que vuelva a suceder lo mismo, por un principio de inercia.
Lo hacemos pero no, no ha ocurrido exactamente lo mismo, sí algo parecido. Ahora tenmos otro punto. Entonces el razonamiento los une con una recta. Continuando este proceso, tendremos la nube de puntos que define la realidad.
[ Volver al Indice ]
Programación Evolutiva-Evolutionary Programming (PE-EP):Este paradigma fué creado por David Fogel. En la Programación Evolutiva los genes codifican un autómata finito o máquina de estados. Cada gen puede consistir en una terna del tipo "estado origen + cadena reconocida + estado destino". En definitiva, cada gen es una regla que especifica las condiciones (cadena reconocida) que se deben cumplir para llegar a un estado (estado destino) suponiendo que la máquina se encuentra en un cierto estado (estado origen).
ESTADO + SUCESO => NUEVO ESTADOEsta regla tiene una forma imperativa. Podríamos resumirla en la forma "Si estoy realizando tal acción, y veo tal información, debo obligatoriamente cambiar a realizar tal acción". Si el autómata se encuentra en determinado estado, y ocurre cierto suceso, el autómata pasa a un nuevo estado. La "cadena reconocida" corresponde con los sentidos o sensores del autómata (el suceso), y los estados corresponden con las acciones o actuadores. Este planteamiento tiene grandes similitudes con una red neuronal, y es el más sencillo de programar, pero hace difícil encontrar la explicación a porqué el autómata realiza cierta acción.
Podemos interpretar la misma regla como declarativa, modificando el significado de cada elemento de la regla.
ESTADO + ACCIÓN => NUEVO ESTADOEsta regla podríamos resumirla en la forma "Si veo tal información, y realizo tal acción, estimo que como consecuencia de mi acción, la proxima información será tal". En este caso, los estados corresponden con la cadena reconocida y estamos suponiendo que las acciones del autómata pueden modificar los futuros valores de la cadena reconocida. Este planteamiento tiene grandes similitudes con un sistema experto. Requiere fijar un objetivo al autómata que consistirá en el estado ideal que el autómata debe observar, y permite explicar porqué el autómata realiza una acción.
[ Volver al Indice ]
Programación Genética-Genetic Programming (PG-GP):Así como en los Algoritmos Genéticos los elementos de la cadena (genes) son un tipo de datos que puede ser bits, strings o integer, en Programación Genetica los elementos de la cadena (genes) son instrucciones en un lenguaje de programación. La inducción de programas mediante programación genética está muy identificada con los trabajos de John Koza, que hacía evolucionar expresiones-S en un programa LISP. Koza fué discípulo de Holland, al igual que Goldberg, y patentó varios de sus algoritmos. Entre otras cosas, los últimos trabajos de Koza ofrecen pruebas de que la programación genética puede implementarse en lenguajes procedurales como C y C++, rompiendo así el mito de que sólo un lenguaje de las características propias de LISP eran capaces.
[ Volver al Indice ]
Programas de Evolución:Los Programas de Evolución son un refinamiento de los Algoritmos Genéticos, propuesto por Michalewicz en 1994. En un programa de evolución, la codificación binaria de ceros y unos empleada por los Algoritmos Genéticos se amplía hasta admitir cualquier tipo de alfabeto. El hecho de utilizar ceros y unos evitaba ciertos problemas que los Programas de Evolución intentan resolver explícitamente, como por ejemplo, cómo se efectúa una mutación. De esta forma se consigue una codificación más cercana al problema a resolver.
Por lo general, los Programas de Evolución se han englobado dentro de los Algoritmos Genéticos (como una variante), y al revés (los Algoritmos Genéticos como un caso particular). En definitiva, actualmente se utilizan los términos de Algoritmo Genético y Programa de Evolución indistintamente para designar algoritmos evolutivos con cualquier tipo de alfabeto.
Cuando el alfabeto utilizado en un Programa de Evolución no es discreto sino contínuo, es decir, cuando los genes son números reales con la máxima precisión (decimales) posible, los Programas de Evolución se confunden con las Estrategias Evolutivas.
Hay que puntualizar que en realidad toda la información que maneja un computador digital es discreta, pero en casos como éste, el nivel de detalle es tan grande que se puede considerar contínuo. En las Estrategias Evolutivas el número de valores posibles de un gen es extremadamente grande, existiendo por lo general muy pequeñas diferencias entre los efectos de dos valores de gen consecutivos.
[ Volver al Indice ]
Pseudoaleatorio: (ver Azar, Aleatorio, Pseudoaleatorio y Determinista)con causa, pero aparentemente impredecible, o impredecible en la práctica debido a la propagación de errores iniciales propia de un sistema caótico, pero predecible en forma de probabilidad
Proceso pseudoaleatorio: proceso cuyo resultado es aparentemente impredecible, excepto en forma de probabilidad
Cadena pseudoaleatoria: cadena para la que aparentemente no existe ninguna forma de comprimir su descripción
[ Volver al Indice ]
Redes Neuronales Artificiales-Artificial Neural Networks (RNA-ANN):Son sistemas que intentan simular el cerebro a nivel de neurona.
Básicamente una RNA es una red de elementos muy sencillos que trabajan en paralelo, existiendo una interconexión masiva entre ellos y diferentes grados de "fuerza" de conexión entre unos y otros. La salida de la red se puede calcular según una fórmula conocida, determinada por el método elegido y extremadamente larga, pero relativamente fácil de implementar por programa.
Las Redes Neuronales Artificiales (ANN: Artificial Neural Networks) fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, formados por un conjunto de unidades llamanas "neuronas" o "nodos" conectadas unas con otras.
Estas conexiones tienen una gran semejanza con las dendritas y los axones en los sistemas nerviosos biológicos.
El Primer modelo de red neuronal fue propuesto en 1943 por McCulloch y Pitts en términos de un modelo computacional de "actividad nerviosa". (Nota: Un artículo de Investigación y Ciencia -Jun 99- señala a Turing como el precursor). El modelo de McCulloch-Pitts es un modelo binario, y cada neurona tiene un escalón o umbral prefijado. Este primer modelo sirvió de ejemplo para los modelos posteriores de Jhon von Neumann, Marvin Minsky, Frank Rosenblatt, y muchos otros.
Una primera clasificación de los modelos de RNA podría ser, atendiendo a su similitud con la realidad biológica:
- Los modelos de tipo biológico. Este comprende las redes que tratan de simular los sistemas neuronales biológicos así como las funciones auditivas o algunas funciones básicas de la visión.
- El modelo dirigido a aplicación. Estos modelos no tienen porque guardar similitud con los sistemas biológicos. Sus arquitecturas están fuertemente ligadas a las necesidades de las aplicaciones para las que son diseñados.
[ Volver al Indice ]
Reduccionismo: (ver Holismo)Un todo puede ser comprendído completamente si se entienden sus partes, y la naturaleza de su suma
[ Volver al Indice ]
Representación del Conocimiento:
- Lógica Proposicional (Cálculo Proposicional)
Proposición=afirmación categórica. p,q,r.
Conectivas: ^ v -> ~
Mecanismo de Inferencia: Modus Ponens
A -> B A ------ B- Lógica de Predicados (Cálculo de Predicados)
Modeliza conjuntos: para todo, existe
Mecanismo de Inferencia:
Modus Ponens
Instanciación (sustituir variables por constantes)
Unificación: método para elegir cuál instanciar.
FNS: Forma Normal de Skolem
Prolog- Redes Semánticas
- Frames (Marcos) -> Instancias (Marcos) -> Instancias
objeto.atributo=valor
facetas:lista de valores, rangos, comentarios, factor de certeza, incertidumbre, grado en que se cumple, tipo de herencia que admite.
Paso de mensajes, demonios (ante eventos).
Mecanismos de Inferencia:
Herencia (es-un)
Enlaces entre un atributo y una instanciación de otro marco.
- Sistemas de producción
BH Base de Hechos
BR Base de Reglas
- Mecanismo de inferencia (obtener nuevo conocimiento a partir del existente).
- Búsqueda heurística de la regla a aplicar del conjunto total de posibles reglas.
[ Volver al Indice ]
RobotUn autómata es un ser totalmente inorgánico, metal y plástico, que podía realizar unas actividades muy limitadas, adivinar el provenir, o simplemente dar la mano a los visitantes, o ajustar la pieza de un coche, realiza actividades repetitivas, y carece de inteligencia.
Un robot es una máquina móvil, mediante rodamientos o extremidades flexibles, controlada por una inteligencia artificial, puede pensar, decidir y aprende de su experiencia como por ejemplo R2-D2 de la película La Guerra de las Galaxias. Los robots positrónicos de la U.S. Robots, son robots o androides, mas habitualmente, con la diferencia de disponer de cerebros positrónicos y llevar incorporadas las tres leyes de la robótica.
Un androide es un robot construido para parecer humano, dispone de movilidad e inteligencia artificial, por ejemplo Sean Young en Blade Runner.
Un ciborg es un humano parcialmente artificial o un robot parcialmente humano por ejemplo Robocop. Pese a ello no tiene por que tener forma humana se podría considerar un ciborg a una nave espacial que tuviera un cerebro humano implantado y que la gobernara.
Un clon es una mutación genética, donde se manipula el desarrollo del embrión y el feto fuera del cuerpo de la madre, para hacer mutaciones que mejoren la raza humana o enriquecer el bolsillo de algunas multinacionales.
Un organismo biomecánico con apariencia humana o no se consigue mediante el empleo de la ingeniería genética y la nanotecnologia para crear híbridos de maquinas con funciones biológicas, esto puede ser por ejemplo, un vehículo exploratorio para hacer estudios de "terraforming" en un planeta deshabitado, armas de ataque inteligentes, naves estelares biomecánicas.
Un mech, es una máquina que en su interior tiene a un humano que lo gobierna y dirige, un exoesqueleto que protege e incrementa la fuerza del ocupante. Puede realizar diversos trabajos, como defensa territorial, almacenaje de contenedores, o exploración.
Las tres leyes de la robótica:
1.- Un robot no puede dañar a un ser humano, o por inacción, permitir que un ser humano resulte dañado.
2.- Un robot debe obedecer las ordenes dadas por los seres humanos, excepto cuando tales ordenes entren en conflicto con la primera ley.
3.- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o la segunda ley.
[ Volver al Indice ]
(Enfoque) Simbólico de la IA o IA Clásica:Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir. Como modelo de mecanismo inteligente a imitar, lo mejor que tenemos y más a mano es el Hombre. Desde este punto de vista, poco interesa simular los razonamientos que puedan efectuar los animales. El boom de los Sistemas Expertos, ahora de capa caída, fue producido por este planteamiento. Para los constructores de sistemas expertos, es fundamental la representación del conocimiento humano y debemos a ellos los grandes avances en este campo. Esto es debido a que, realizando una gran simplificación, se deben incluir en un sistema experto dos tipos de conocimiento: "conocimiento acerca del problema particular" y "conocimiento acerca de cómo obtener más conocimiento". Para el primero existen técnicas como los Frames (marcos) que fueron los padres de lo que hoy conocemos como Programación Orientada a Objetos. El segundo es llamado también mecanismo de inferencia y requiere además de un método de búsqueda que permita seleccionar la regla a aplicar del conjunto total de posibles reglas. Esto puede parecer lo más sencillo, pero habitualmente es lo más difícil: se trata de no demorarse varios millones de años en elegir.
Como ejemplo representativo de la rama simbólica llevada al extremo tenemos el proyecto Cyc de Douglas B. Lenat, con un sistema que posee en su memoria millones de hechos interconectados. Según Lenat, la inteligencia depende del numero de reglas que posee el sistema, y "casi toda la potencia de las arquitecturas inteligentes integradas provendrá del contenido, no de la arquitectura". Para él, los investigadores que esperan poder resolver con una única y elegante teoría todos los problemas de inferencia y representación de conocimientos, padecen celos de la física: ansían una teoría que sea pequeña, elegante, potente y correcta.
Otro de los argumentos en la defensa de esta línea de trabajo se resume en la frase: "El experto no piensa, el experto no aprende. El experto sabe."
Otra de las áreas de interés es el Procesamiento del Lenguaje natural.
[ Volver al Indice ]
Simulación:Simular es experimentar mediante un modelo de un sistema real. Así se evita construirlo, perturbarlo o destruirlo.
La principal ventaja de la simulación es que ofrece un análisis dinámico en paralelo de todos los elementos que intervienen en el sistema, cosa de la que en principio no es capaz el razonamiento consciente secuencial del ser humano.
Aplicaciones de la simulación:
- Diseño de plantas e instalaciones
- Manufactura flexible
- Análisis de la capacidad
- Análisis de cuellos de botella
- Planificación de uso de recursos
- Optimización de fujo de materiales
- Control de inventarios
- Planificación de órdenes de trabajo
- Optimización de sistemas de mantenimiento
Las principales ventajas de la simulación son:
- El diseño del modelo ofrece una visión simplificada de los procesos productivos
- Permite la experimentación
- Ayuda a la toma de decisiones
Un tipo de problema informático clásico es crear un traductor (autómata o compilador), es decir, un programa capaz de transformar unas entradas en unas salidas.
Una vez que hayamos terminado el trabajo, tendremos un programa o función F1 capaz de convertir unas entradas en unas salidas.
Si hablamos de hacer simulaciones, esta función F1 representará un sistema del mundo real. Las entradas serán las posibles acciones sobre ese sistema, y las salidas representarán la reacción del sistema ante esas entradas. Con el programa F1 podríamos predecir el comportamiento del sistema ante cada posible entrada.Llegados a este punto, puede ser muy interesante conocer cuál debe ser la entrada necesaria para obtener cierta salida.
Esto se puede ver como un problema de optimización (optimizar el valor de la salida) o de búsqueda (encontrar la mejor entrada)En definitiva, lo que queremos encontrar es el programa o función F2 capaz de decirnos cuál es la entrada que produce cierta salida deseada.
Cuando obtengamos F2, podremos fijar un objetivo S y calcular la acción E necesaria para conseguirlo.
Ahora bien, F2 deberá tener en cuenta a F1. F2 deberá disponer de un mecanismo interno (F3) capaz de realizar experimentos con F1 hasta encontrar una solución aceptable.
En definitiva, tenemos un sistema capaz de aconsejar la mejor acción para conseguir un objetivo, basado en un subsistema de búsqueda (u optimización) aplicado a un modelo de la realidad.
Algunos lenguajes de simulación son:
Discretos
Contínuos
Redes
Eventos
Actividades
SimnetII
Witness
SIMSCRIPT
Stella
GPSS
SIMAN
Dynamo
SLAMII
IDSS
CSHP
Q-GERTS
See Why
SLAM
GEMS
Auto-Simulations
Vensim
Manman
I Think
AIM
Simula
[ Volver al Indice ]
Simulated Annealing (solidificación simulada, agregación simulada, recocido simulado):Su origen está en la Física estadística. Los procedimientos físicos de solidificación controlada consisten en calentar un sólido hasta que se funde, y seguidamente, ir enfriándolo de forma que cristalice en una estructura perfecta, sin malformaciones locales.
En la agregación simulada se parte de una solución válida a la que se le provocan pequeñas mutaciones aleatorias. A diferencia del método de Montecarlo, se puede aceptar una solución peor que la anterior. A medida que avanza el algoritmo, éste cada vez será más exigente en cuanto a las soluciones aceptadas. En al analogía con la solidificación física, se trata de tener un cuerpo (problema) a alta temperatura (admitiendo soluciones muy diversas a pesar de ofrecer malos resultados) e ir disminuyendo la temperatura (aumentando la exigencia del algoritmo) de forma que termine por solidificarse según la forma deseada (ofreciendo el mejor resultado).
[ Volver al Indice ]
Sistema: Conjunto de elementos y las interacciónes entre los mismos."Un sistema es un conjunto de elementos relacionados entre sí, actuando en un determinado entorno (e interaccionando con él), con el fin de alcanzar un objetivo común y con la capacidad de autocontrol." (Gómez-Pallete)
"Un sistema es un conjunto dado de elementos, sus comportamientos permanentes, y un conjunto de acoplamientos entre los elementos y entre los elementos y el entorno." (Klir)
[ Volver al Indice ]
Sistema Experto: Sistema Basado en el Conocimiento (SBC) artificial que posee un comportamiento que se puede considerar equivalente al de un Experto en un área del conocimiento determinada.
[ Volver al Indice ]
Solipsismo:Planteamiento filosófico que admite la existencia de uno mismo, sus sentimientos y creencias, pero reconoce la falta de seguridad en la existencia de todo lo demás: el resto de individuos, objetos y en definitiva, de todo el universo excepto uno mismo.
La argumentación es la siguiente: ya que toda la información que uno posee proviene de los sentidos y los sentidos son propensos a errores y engaños, cualquier información proporcionada por los sentidos no es fiable..
En cambio, el simple hecho de recibir información por los sentidos implica la seguridad en la certeza de la existencia de un receptor, que es uno mismo, y de algún tipo de sensores (que definen al receptor), pero no implica la existencia de un emisor distinto a uno mismo.
Curiosamente, la información objetiva relativa a uno mismo (soy alto, mi cuerpo está frío, mi cuerpo está cansado, mi estómago está dañado) también se recibe por los sentidos y también es propensa a errores, por lo que la información objetiva que representan los sentidos tampoco es fiable, aunque sí lo es la información desde el punto de vista subjetivo (creo que soy alto, siento frío en el cuerpo, estoy cansado, me duele el estómago).
Es decir, el hecho de recibir información por los sentidos, además de implicar la seguridad en la certeza de la existencia de uno mismo como receptor, también implica la certeza del significado subjetivo de los estímulos. No puedo estar seguro de ser alto, o de tener frío en el cuerpo, pero lo que es seguro es que yo creo que soy alto y que yo siento que tengo frío. Este último aspecto se hace patente en los sueños, donde se reciben estímulos provocados por uno mismo. En un sueño es posible creer que uno es alto cuando no lo es, o sentir frío cuando el cuerpo no posee una temperatura baja.
Sin duda, la vida puede ser un sueño, ya que no hay forma de distinguir entre sueño y realidad.
La falsedad del solipsismo es indemostrable, como es indemostrable la falsedad de cualquier axioma.
Sin embargo, el solipsismo es improbable (es decir, la falsedad del solipsismo es probable). El sentido común basado en el principio de la analogía entre los sucesos, nos dice que es más probable que las cosas sean lo que parecen, frente a que no sean lo que parecen, o ni siquiera existan.
[ Volver al Indice ]
(Enfoque) Subsimbólico de la IA:Los esfuerzos de los subsimbólicos, se orientan a simular los elementos de mas bajo nivel que componen o intervienen en los procesos inteligentes, con la esperanza en que de su combinación emerja de forma espontánea el comportamiento inteligente. Los ejemplos más significactivos probablemente sean las Redes Neuronales Artificiales (RNA) y la Computación Evolutiva. Ambos, aunque parezcan fenómenos recientes, no son más jóvenes que los Sistemas Expertos (SE) de la IA clásica. Una posible causa de su menor publicidad y financiación es la necesidad de mayores cantidades de recursos informáticos en comparación con los SE. El Perceptrón de Rosenblat, antecedente de las RNA, apareció en 1959, y los algoritmos genéticos fueron desarrollados por Holland a finales de los años 60 bajo el nombre de "planes reproductivos".
Las grandes ventajas de los sistemas subsimbólicos son la autonomía, el aprendizaje y la adaptación, conceptos todos ellos relacionados.
[ Volver al Indice ]
Vida:El "ser" puede ser, además, "ser vivo" (ser un ser vivo). El calificativo de vivo siempre se aplica (cuando no es metafóricamente, como en "el rock está vivo") a un ser material (una piedra no está viva, una rana sí). Una posible aproximación a la definición es basarla en una serie de procesos: nacen, crecen, intercambian energía, se mueven, tal vez se reproducen, suponemos que siempre mueren. Pero esos comportamientos los tienen otras muchas entidades que no consideramos vivas. ¿O deberíamos considerarlas?
Hacia abajo: ¿Están vivas las células de la piel de la rana?
Hacia arriba: ¿Está vivo nuestro equipo de fútbol?¿Está vivo un idioma? Los idiomas, y algunos programas de ordenador nacen, crecen, se reproducen y mueren. Sin embargo, hay algo que indica al criterio popular que la rana sí está realmente viva y el programa de ordenador no ¿qué será? (Al final, se ofrece una posible respuesta.)
¿Un ser vivo debe ser consciente, al menos en un pequeño grado? Tal vez el concepto de ser vivo sea algo borroso, gradual equivalente a la consciencia. De igual forma que una nota "emerge" de una serie de fluctuaciones identicas, y una melodía "emerge" de una serie de notas, cada una con su propia frecuencia, tal vez la consciencia emerja de los procesos vitales. Y tal vez no.
"La vida es algo que no puede expresarse con el color y la forma; su concepto implica abstracción unitaria de múltiples armonías, medidas, proporciones, movimientos, ritmos y luces, que se dan en el complejo psíquico y moral, orgánico y sensitivo, elemental y múltiple, representativo y difuso, de condición microcósmica y egocéntrica, manifiestamente sometido a constante inquietud, evolución, transmutaciones y transubstanciaciones."(Agustín de la Herrán y de las Pozas, Autorretrato mágico del alma de Goya, 1971)
"La vida consiste basicamente en trabajar y dormir. ¿Sólo eso? Bueno, de vez en cuando te puedes tomar una cerveza con los amigos" (Olaf el vikingo).
"La vida en sí no es nada, es sólo la oportunidad para algo." (Christian Friedrich Hebbel)
"La vida es una enfermedad mortal de transmision sexual" (?)
Ser vivo sensible: "Aquella entidad que posee un mecanismo de asignación de recompensa y/o castigo tal que le produce sensaciones de placer y/o dolor" (ver Autómatas como analogías de nuestro universo)
[ Volver al Indice ]
Vida Artificial:Intento por parte del Hombre, de crear vida, o algo parecido a la vida, mediante la combinación de símbolos (datos) y procesos de símbolos (programas) independientemente del soporte físico de estos símbolos y procesos.
[ Volver al Indice ]