ISSN: 1579-0223
 
Sentience Research
REDcientífica
· Misión de REDcientífica
· Contacto
· Condiciones de publicación
· Consultar todos los documentos
· Consultar todos los autores
· Acceso usuarios registrados
· English version


PORTADAS
40  41  42  43  44  45  46  47  48  49  50  51  52  53 

BOLETINES
40  41  42  43  44  45  46  47  48  49  50  51  52  53 

TEMAS



ENLACES

Las máquinas del futuro, ¿podrán llegar a ser conscientes?

Sergio Moriello
https://www.redcientifica.com/aut...
Ingeniero en Electrónica y Periodista Científico
 
ImprimirEnviar

El hecho de aceptar que una "máquina" pueda tener un cierto tipo de consciencia, sin dudas, constituiría una profunda herida para el narcisismo humano. Si esto ocurre, ¿será capaz el homo sapiens de soportar y cicatrizar, alguna vez, esta nueva y grave herida?


Muchos filósofos y científicos opinan que es poco concebible que una verdadera inteligencia pudiera manifestarse sin estar acompañada por la consciencia. Estas capacidades, o habilidades, podrían compararse con la llave y la cerradura, en donde una no tiene sentido sin la otra; de la misma manera que es inconcebible suponer que existe un lugar denominado "la ciudad" totalmente aparte y por separado de los parques, los edificios, las calles, las personas, los negocios, los medios de transporte y todas aquellas otras entidades materialmente especificables que le dan forma. Si se alcanza la inteligencia, la consciencia surge como consecuencia. No obstante, hay otros pensadores que consideran que la conciencia no necesariamente está "atada" a la inteligencia. Por ejemplo, argumentan, los hormigueros se comportan de una manera bastante inteligente, aunque es muy difícil defender la idea de que existe alguna clase de conciencia unificada "revoloteando" entre las miles de hormigas que lo componen.

Asimismo, aunque varios expertos aseguran que la consciencia es un atributo que pertenece exclusivamente a la especie humana, otros lo ponen en duda: quizás muchos de los animales tengan también un cierto tipo de consciencia, si bien muy primitiva o poco desarrollada. Es indudablemente cierto que muy poca gente estaría en verdad convencida de que los anfibios o los peces -por poner un ejemplo- poseen una determinada clase de consciencia, pero no ocurre lo mismo cuando se observa a un perro o, especialmente, a un mono. Si bien muchos argumentarían que estos animales sólo responden al entorno por puro instinto, la mayoría de las personas habitualmente asocia algunas de sus conductas con experiencias subjetivas netamente humanas: infieren en estas criaturas la alegría, la ira, el dolor, los deseos o las intenciones.

Por supuesto, resulta difícil verificar estas hipótesis porque no se logra establecer una comunicación real con estas criaturas; únicamente se pueden observar sus comportamientos externos. Aun así, este punto de vista no deja de ser bastante antropocéntrico, en el sentido de que sólo se reconocen aquellas experiencias subjetivas que tengan una correlación estrecha con el ser humano. En efecto, el hombre sólo asume que otra entidad puede poseer consciencia (o inteligencia) afín si es semejante a él mismo, tanto en su comportamiento como en su aspecto físico. Y a medida que el animal está más arriba en la "escalera evolutiva", más se le concede sentimientos y un funcionamiento mental similar al humano. En este sentido, hay que admitir que el homo sapiens es muy poco tolerante a las diferencias...

Es por este motivo que muchos científicos de las ciencias humanas afirman que la consciencia está muy ligada al lenguaje y que éste es el ingrediente clave de aquella. Es gracias a la capacidad lingüística que los humanos se diferencian de todo el reino animal y pueden alcanzar la exclusividad del pensamiento. Y es sólo a través del lenguaje (tanto oral como escrito) que es posible describir los propios estados internos, de forma tal de convencer a los demás integrantes de la sociedad de que se tiene consciencia tanto del mundo externo como del interno.


Una cuestión de grado

Parece razonable aceptar, por lo tanto y dado que el ser humano evolucionó a partir de formas menos complejas, que la consciencia es una cuestión de grado, con muchos niveles, y no algo "binario", algo que simplemente se tiene o no se tiene. En su nivel más bajo se encontraría la capacidad de un organismo para tener experiencias de sus sensaciones corporales. Las animales que se encuentran en la parte inferior de la escala evolutiva se inscribirían en esta categoría. En un nivel superior estaría la capacidad de ese organismo para tener experiencias perceptivas tanto de su cuerpo como de su entorno inmediato y para trazarse objetivos bien definidos, como el hecho de tratar de sobrevivir o de reproducirse. La mayoría de los animales pertenecerían a esta clase. En el nivel más elevado de consciencia estaría la habilidad para adquirir conocimiento y para examinar los propios estados mentales; es decir, la capacidad de introspección, de analizarse a sí mismo. Sólo el hombre, de entre todas las especies que pueblan el planeta, ascendería hasta este nivel.

Particularizando el análisis en el ser humano, aparentemente se perciben dos niveles o dos aspectos diferentes en la consciencia. El físico-matemático inglés Roger Penrose distingue las manifestaciones "pasivas" (que implican conocimiento, como la percepción del color o la utilización de la memoria) de las "activas" (que implican conceptos, como la libre elección y la realización de acciones voluntarias). El filósofo británico Jack Copeland también establece una diferencia entre la percepción del entorno a través de los sistemas sensoriales y la capacidad de realizar actividades internas como planificar, razonar o juzgar, entre otras.

Por ejemplo, cuando una persona conduce un automóvil por un trayecto conocido, puede abstraerse en sus propios pensamientos conscientes y, sin embargo, ejecutar cambios de velocidad, maniobrar eficazmente, juzgar distancias relativas, leer señales de tránsito u observar el paisaje en forma automática, sin reflexionar sobre eso, de manera inconsciente. Del mismo modo, cuando una persona practica algún deporte, corre a través de un terreno accidentado o simplemente camina por una calle muy transitada, su cerebro ejecuta una gran cantidad de tareas: mueve los brazos y el cuerpo acompañando el movimiento de las piernas, elude eficazmente los obstáculos que se interponen en su camino, analiza visualmente el entorno, regula el ritmo respiratorio... La persona solamente elige "de manera consciente" el trayecto a seguir y el cuerpo -o la mente subconsciente- realiza automáticamente las operaciones necesarias. Por este motivo, lo que se acostumbra a denominar "consciencia" es sólo la porción visible del "iceberg", lo racional, lo lógico, lo que se puede observar desde afuera; la inmensa mayoría de los procesos mentales se producen "debajo de la superficie" o "detrás de los bastidores", fuera de la percepción de aquella.

Así, aparentemente la consciencia sólo se hace necesaria en aquellas situaciones que exigen juicios novedosos, por ejemplo las habilidades motoras que, una vez aprendidas, pueden ejecutarse de manera inconsciente. Es el caso de las personas que aprenden un deporte, o a tocar un instrumento musical, o simplemente a andar en bicicleta. En otros casos, como argumenta el doctor Penrose, uno está consciente de algo; por ejemplo, se puede estar consciente de una sensación (como el dolor o el frío), o de un sentimiento (como la alegría o la desesperación), o del propio pensamiento. También se puede ser consciente de alguna experiencia pasada, o de un sueño futuro; o de la elección de una opción, o de una acción motriz como la de tomar asiento.


Consciencia no corpórea

¿Podrá un concepto tan humano como la consciencia cobrar vida en los circuitos de algo inanimado como una computadora? ¿Es posible duplicar las funciones de un cerebro orgánico en una estructura artificial que se asemeje a la humana? ¿Podrán algunos procesos computacionales -radicalmente distintos de los que existen en el cerebro- generar propiedades mentales similares a las humanas? ¿Tendrán las inteligencias artificiales una "psicología"? Y de ser así, ¿sería ajena al ser humano? ¿Sabrán las máquinas lo que hacen, tendrán intenciones?

Muchos filósofos opinan que la computadora no tiene ni podrá tener consciencia, porque está construida con materiales no orgánicos y no cuenta con una estructura neuronal profundamente integrada a un cuerpo biológico. Tal vez la consciencia humana sea un fenómeno biológico que dependa de la interacción del cerebro con el resto del cuerpo y con el mundo que lo rodea, de la propia herencia y de los miles de millones de años de evolución de la vida sobre la Tierra. Para el periodista argentino Eduardo Dahl, las máquinas "calculan pero no piensan; reaccionan pero no meditan". Roger Penrose, por ejemplo, sugiere que los fenómenos de la consciencia no sólo no podrían llevarse a cabo, sino que ni siquiera podrían ser simulados por ningún tipo de computadora -en el sentido que se le da actualmente a este término- ya que éstas solamente pueden obedecer un algoritmo. Los seres humanos, en cambio, poseen un pensamiento consciente porque la actividad física, la "computación", de su cerebro es de índole cuántica, algo completamente distinto y que está mucho más allá de la "simple" computación algorítmica. En consecuencia, y para este pensador, sólo aquellas entidades capaces de ejecutar una "computación cuántica" serían verdaderamente conscientes. Sin embargo, y según sus propias palabras, "en este momento carecemos totalmente de la comprensión física necesaria para construir tal presunta 'máquina', incluso en principio". También el filósofo David Chalmers opina de forma similar: quizás la consciencia sea una propiedad inmaterial, no-física, y fundamental del universo, vagamente comparable con la masa, el espacio y el tiempo y que acompaña ciertas configuraciones de materia como, por ejemplo, un cerebro orgánico. Para este pensador, sólo se conseguirá construir máquinas inteligentes cuando éstas puedan evolucionar, pues la consciencia resulta de la evolución de las especies.

Otros filósofos, en cambio, admiten que si alguna vez se llegara a imitar el funcionamiento del cerebro, quizás también se podrían simular las emociones y los sentimientos. Pero para eso no sólo habría que diseñar un cerebro artificial, sino también un cuerpo y, en lo posible, de forma humana. En consecuencia, la máquina ya no sería simplemente una computadora con gran inteligencia, ni siquiera un robot dotado de elaborados sistemas sensoriales y motores, sino un complicado androide capaz de interaccionar con el entorno, con los problemas de la vida real y con las personas. De esta manera, en la modelización del intelecto inorgánico posiblemente se deba tener en cuenta, también, las teorías cognitivas, culturales, históricas y sociales. Aunque esta "pseudosensibilidad" tal vez no sea una consciencia auténtica -ya que, en sí misma, no podría tener ningún sentimiento o ninguna experiencia consciente-, se le parecerá bastante. De todas formas, y desde el punto de vista de la ingeniería, se trata de un reto formidable, principalmente debido a que no se sabe que es lo que hace que el cerebro humano sea consciente.


Fenómenos emergentes

Sin embargo, muchos otros científicos arguyen que en un futuro la consciencia humana perdería, posiblemente, su condición de exclusividad y el que las inteligencias sintéticas no hayan conseguido -hasta ahora- determinadas cosas no significa que no las logren dentro de algún tiempo. En efecto, así como podría admitirse que los animales cuentan con un cierto tipo de inteligencia y consciencia, también podría incluirse a las máquinas (o a sus sucesoras) en esta categoría. Según el experto norteamericano en informática Ray Kurzweil, "las máquinas de hoy son todavía un millón de veces más simples que el cerebro humano. Su complejidad y sutileza es hoy comparable a la de los insectos. [...] El progreso sin descanso llevará en unas pocas décadas a las máquinas a niveles de complicación y refinamiento humanos, y aún más allá".

Obviamente, y aunque esta corriente de pensamiento considera que la consciencia es una forma de "computar", se trata de una computación inconcebiblemente mucho más compleja que la actual. Sin dudas, la materia gris es muchos órdenes de magnitud más elaborada que cualquier artefacto creado por ella; después de todo, viene evolucionando a lo largo de millones de años. Pero una vez que este tipo de máquinas alcance la complejidad del cerebro humano y eventualmente la supere en todo aspecto (quizás dentro de unos pocos decenios o tal vez dentro de un siglo), ¿se volverá consciente? En otras palabras, una entidad artificial constituida por elementos de computación elaborados, poderosos y densamente interconectados, capaz de ejecutar los cálculos adecuados (a infernales velocidades) y dotada de sofisticados programas de computación, inmensamente más complicados que los actuales, ¿realmente tendrá consciencia de lo que es, de sí misma y de los demás?, ¿experimentará sentimientos y pasará por estados emocionales?, ¿podrá fijar sus propios objetivos y planes?, ¿será capaz de desarrollar cualidades mentales como la creatividad, la estética o la inspiración?

No obstante, y como explica el sociólogo y epistemólogo argentino Alejandro Piscitelli, "la idea no es programar 'consciencia' sino 'comportamientos' y esperar a que en algún momento emerja (o no) la consciencia". Para eso, ya se cuentan con algunas técnicas promisorias de Inteligencia Artificial, como las redes neuronales, los algoritmos genéticos, la computación evolutiva y demás. Para la mayoría de la gente que trabaja en estos temas, la consciencia es un fenómeno "emergente", es decir, se produce espontánea y naturalmente cuando un sistema ejecuta el tipo correcto de actividad computacional y su complejidad supera un cierto umbral, una determinada masa crítica. Por ejemplo, ¿cómo se explica, sino, que las neuronas (en definitiva, algo material) puedan dar origen a fenómenos como el de la conciencia y la inteligencia (es decir, algo inmaterial)? Parece obvio que cuando se agrupan en inmensas cantidades, interaccionan entre sí de manera conveniente y trabajan de forma coordinada, estas estructuras relativamente simples pueden producir un sistema que se comporta de forma absoluta y sorprendentemente diferente.

Algo similar ocurre con la habilidad de las pequeñas termitas -ciegas y casi descerebradas- para erigir estructuras de enorme tamaño y complejidad: ¿será que la toda la colonia tiene, gracias a la comunicación de infinidad de insignificantes cerebros, el poder intelectual colectivo de un gran director de obra? Asimismo, las colonias de hormigas son otro excelente ejemplo de sistema autoorganizativo: aunque excesivamente tontas consideradas de forma individual, cuando se reúnen en grandes grupos actúan con la sofisticación y celebridad de un equipo de ingenieros altamente entrenados. Estas especies no son la masa de insectos individuales que aparentan ser, sino que constituyen un organismo único, una "mente distribuida" sobre miles de millones de diminutos cerebros extremadamente simples.


¿Son inconscientes los seres humanos?

Si la consciencia significa esencialmente tener un modelo interno lo suficientemente adecuado de uno mismo en relación con el mundo exterior, también se puede imbuir consciencia a una computadora. Sobre la base de esta concepción, Marvin Minsky, uno de los fundadores de la IA, opina que los humanos son apenas conscientes, ya que "tienen poca idea de lo mucho que ocurre dentro de sus mentes y encuentran casi imposible recordar lo que sucedió hace apenas unos minutos". En efecto, el ser humano no tiene un registro consciente de todos sus procesos mentales, y ni siquiera de la mayoría de ellos. Dado que dispondrían de formas más eficientes para almacenar y recuperar la información relacionada con sus propias actividades, una máquina podría conservar archivos mucho más completos, minuciosos y detallados de sus operaciones "mentales", incluso durante largos períodos de tiempo. Y al estar mejor equipadas que los cerebros orgánicos para autocontrolarse y para percibir casi a la perfección sucesos que para los seres humanos pasan completamente desapercibidos (como procesos extremadamente lentos o excesivamente rápidos, o que están fuera de los límites de sensibilidad de los sentidos naturales), las máquinas pueden llegar a ser incluso muchísimo más conscientes que éstos. "Desde este punto de vista, se podría decir que las computadoras actuales ya tienen consciencia. Obviamente se trata de una consciencia muy simple, elemental, y por eso parecen muy poco inteligentes y más bien estúpidas. Todavía se está muy lejos de crear máquinas que hagan todas las cosas que la gente hace", concluye el científico.

Incluso sería concebible que este tipo de "máquinas" -si es que pueden llamarse así- podrían diseñarse específicamente para "tener consciencia", con lo cual tendrían una enorme ventaja sobre los miembros de la especie humana. Podrían introducirse muchos cambios simultáneamente, existiendo la posibilidad de realizar con facilidad rediseños completos, y no limitarse a hacerlo en forma incremental y centrándose en un solo problema a la vez, que es el modo en como opera la evolución biológica. El "pensamiento" lógico, racional, la "mente consciente", de estas entidades sería tremendamente poderoso, sus sistemas sensoriales extremadamente sutiles y veloces, sus "experiencias recordadas" perfectamente vívidas, su aptitud para modelar el entorno circundante en su memoria, impecable, excelente y completo...

Pero, ¿puede una máquina "entender" una expresión facial humana?, ¿"sentir" melancolía al escuchar una pieza musical que evoca recuerdos pretéritos?, ¿tener la sensación de "vuelta al origen" en el seno materno, al zambullirse en una pileta con agua templada?, ¿"traducir" los datos sensoriales en experiencia subjetiva? Es decir, aún aquellas máquinas cuyo flujo de datos imita fehacientemente el flujo de datos presente en el cerebro biológico, ¿puede realmente tener experiencias propias? Cuando el ser humano reúne todo el ingente torrente de datos del entorno a través de sus sistemas sensoriales (y, junto con los hechos objetivos, sus propias impresiones sensoriales y sus anteriores experiencias), su mente los "integra" -de alguna manera- en una nueva experiencia particular, personal, extrayendo lo más importante, lo más significativo, de la escena y lo convierte en diferentes conceptos, muchas veces, abstractos. Por ejemplo, cuando un bebé de unos pocos meses de vida llora desconsoladamente, su madre podría notar y ver la expresión corporal de sufrimiento y las lágrimas de su pequeño hijo, así como también podría escuchar sus lamentos y sus gritos desesperados. Pero, sin lugar a dudas, la mujer adquiere una experiencia subjetiva intransferible acerca de la infelicidad y, eventualmente, la angustia de su indefenso bebé y "siente" la urgente necesidad de hacer algo a fin de calmarlo y consolarlo.

De forma similar, cuando uno habla acerca de su interior, no se refiere a los flujos de datos o a las descargas neuronales dentro de su cerebro, ni siquiera a las neuronas implicadas en sus procesos de pensamiento y sentimiento, sino a los propios sentimientos y pensamientos en sí. Y eso es una experiencia subjetiva, ¿las podrá tener una máquina? Muchos sistemas complejos y elaborados de hoy en día pueden eventualmente detectar su daño interno o diagnosticar su mal funcionamiento, incluso, pueden llegar a corregirlos apropiadamente... pero, ¿se lastiman realmente?


¿Habla usted chino?

Habitualmente todo el mundo se considera consciente; sabe que es y está consciente cuando medita, recuerda, escucha u observa con atención. Pero es virtualmente imposible tener la certeza absoluta de que las otras personas también son igualmente conscientes. A decir verdad, lo único que se tiene son evidencias indirectas: ellas pertenecen a la misma especie, tienen un origen biológico común, son físicamente parecidas, y su comportamiento también es similar. De lo único que se dispone es del juicio externo, del comportamiento que manifiesta esa persona o cualquier otra entidad; no obstante, esta evidencia no basta para demostrar que exista una consciencia. La conducta no está vinculada a la consciencia como el trueno al rayo o la lluvia a las nubes: la primera no garantiza la segunda, sino que está garantizada por ésta.

Los investigadores de IA aceptan el criterio de la prueba de Turing, la cual afirma que si una máquina se comporta de manera que no puede distinguirse convincentemente de la de un ser consciente, a todos lo efectos es consciente; o, lo que es lo mismo, que una simulación perfecta de una consciencia es ciertamente una consciencia. Lo que ocurre en realidad en el interior de la "mente" de la máquina es, en gran medida, irrelevante. Sin embargo, hay otros pensadores quienes aceptan el argumento del filósofo norteamericano John Searle según el cual existe una brecha insalvable entre lo simulado y lo real. Para él, las computadoras no pueden ser conscientes, del mismo modo que una tormenta simulada nunca podría mojar a nadie o un incendio simulado no tendría jamás posibilidades de quemar una casa. Aunque admite que podrían llegar -algún día- a simular el pensamiento, para este filósofo las máquinas seguirán siendo esencialmente inconscientes de lo que piensan. Después de todo, ¿quién admitiría que un loro es capaz de hablar, de mantener una conversación coherente con una persona?

Su contribución más contundente en contra de la prueba de Turing se conoce como "el argumento de la habitación china" y se concentra en mostrar que lo que puede estar pasando dentro de la máquina no tiene nada que ver con lo que se entiende por "consciencia". Imagine que usted es colocado dentro de una habitación cerrada que contiene una biblioteca con libros escritos en un lenguaje que usted ignora totalmente, por ejemplo, el chino. Suponga además que su única conexión con el exterior se hace a través de una pequeña ranura. Ahora imagine que le dan un conjunto de reglas, escritas en su lenguaje nativo (que usted domina a la perfección), que le permiten -sin mayores inconvenientes- responder en chino a las preguntas que vienen formuladas también en chino. En esta analogía el conjunto de reglas equivaldría a un "programa" y usted equivaldría a una "computadora". Asuma, además, que los programadores se vuelven lo suficientemente buenos escribiendo los programas y usted lo suficientemente bueno manipulando los símbolos chinos, que todas las preguntas en chino se responden exacta y precisamente. Después de un tiempo prudencial, y para un espectador externo, sus respuestas serán indistinguibles de las de una persona nacida en China; no obstante, usted aún sigue sin poder representar interiormente las verdaderas significaciones de ese tan particular idioma. En otras palabras, usted continúa sin entender absolutamente nada de chino.

Para Searle los seres humanos son capaces de comprender -a diferencia de las máquinas- gracias a que poseen la facultad de "intencionalidad", de "direccionalidad", de "dirigirse a algo", que caracteriza sus estados mentales. Este filósofo considera que la intencionalidad de los pensamientos, así como también de las creencias, los deseos, las esperanzas y los temores humanos, es el resultado de las operaciones bioquímicas, propias, únicas, exclusivas y características de todo cerebro orgánico vivo.


¿Se necesitan "máquinas" conscientes de su propia existencia?

Si la respuesta fuese afirmativa seguramente surgirán otras tal vez más inquietantes: ¿qué pasará con la libre voluntad?, ¿tomarán estas "máquinas" sus propias decisiones, o se limitarán a seguir un programa, aunque extremadamente complejo? ¿Desarrollarán algún tipo de discriminación sobre los seres vivos, en especial sobre los humanos?, ¿qué "pensarán" de éstos?, ¿tendrán derecho a censurar algunas de las actitudes humanas aduciendo que son contrarias a sus intereses?, ¿serán propensas a comportamientos de tipo "paranoide" o "psicótico"?... ¿en qué se transformarían las máquinas? En efecto, si se logra algún día construir una "máquina que tenga consciencia", ¿no dejaría de ser ésta, por simple definición, una máquina? ¿Acaso las máquinas no se construyen única y exclusivamente para desempeñar una función y nada más?

Aparentemente, el problema no sería tanto si las computadoras fuesen capaces de pensar -algo que de por sí ya es bastante atemorizante-, ni siquiera que lo hagan a velocidades muchas veces superiores a la del homo sapiens, sino si podrían desarrollar algún tipo de consciencia. No existe temor más profundamente arraigado en el espíritu del hombre que destapar la caja de Pandora (o la de la tecnología, en una versión más actual). Si la inteligencia estuviera enlazada indisociablemente a la consciencia, entonces es posible que las "máquinas inteligentes" tengan aspiraciones y deseos propios y podrían no estar dispuestas a trabajar incansablemente -como esclavas- para sus dueños. Además, quizás y de forma automática, surgiría en ellas el deseo de autoconservación, la negativa a dejarse "desconectar". Y dado que la consciencia es vida, desconectar una consciencia sería una forma de homicidio. Hasta el concepto mismo de posesión -por parte de un ser humano- de una "máquina inteligente" podría cuestionarse moralmente. ¿Qué tipos de derechos se les debería dar o negar a éstas "máquinas"? En síntesis, tal vez las consecuencias de este "logro" podrían llegar a ser nefastas, pero por ahora no es posible saberlo ni predecirlo.

Pero, y como se pregunta el profesor Minsky, ¿qué pasaría si la única forma de hacer que las computadoras sean más inteligentes es hacerlas autoconscientes? Por ejemplo, explica, "podría resultar demasiado arriesgado asignarle a un robot una tarea importante de gran alcance sin alguna comprensión de sus propias habilidades. [...] Si queremos que el robot sea lo suficientemente versátil como para resolver nuevos tipos de problemas, podría necesitar [...] ser capaz de comprenderse a sí mismo lo suficiente como para cambiarse". Tal vez un robot (o un androide) dotado de autoconsciencia tendría la capacidad de apreciar, ajustar y controlar sus estados internos, así como de valorar, planificar y llevar a cabo sus acciones. Dado que necesitaría interaccionar eficazmente con el entorno, el robot debería ser capaz de "entender" las motivaciones y "adivinar" las reacciones de los demás robots y también la de los otros seres vivos (en especial, los seres humanos), por lo que tendría que contar con la habilidad para poder modelar tanto a sí mismo como también a su entorno continuamente variable.

Por otra parte, el hecho de aceptar que una "máquina" pueda tener un cierto tipo de consciencia, sin dudas, constituiría una profunda herida para el narcisismo humano. Herida que seguiría a las anteriores: la de que la Tierra no es el centro del universo (con el astrónomo polaco Nicolás Copérnico y el físico, matemático y astrónomo italiano Galileo Galilei), la de que el hombre no está tan separado de los primates (con el naturalista británico Charles Darwin) y la de que coexiste en el ser humano la inteligencia y la emoción, la razón y la irracionalidad (con el neurólogo austríaco Sigmund Freud). ¿Será capaz el homo sapiens de soportar y cicatrizar, alguna vez, esta nueva y grave herida?, ¿podrá tolerar el fuerte choque que seguramente experimentará ante el aberrante concepto de la "máquina consciente" y totalmente autónoma?

El siglo XX fue testigo de cómo las máquinas primero y las computadoras después vienen superando incesante e inexorablemente las habilidades tanto físicas como intelectuales del ser humano: así, la imponente Deep Blue demostró que, por lo menos en el juego estratégico y racional del ajedrez, la inteligencia humana no es la única sobre el planeta. Humillado nuevamente, el homo sapiens trata -de la mano de sus filósofos- actualmente de alzar su propia autoestima aduciendo que las máquinas "nunca" tendrán conciencia, o que "jamás" experimentarán emoción alguna. ¿Estará lo suficientemente seguro de eso?



Sobre el autor


Sergio A. Moriello trabaja en la actualidad en Telefónica Argentina. Es periodista científico, ingeniero en electrónica y posgraduado en administración empresarial.





Documentos relacionados






Otros documentos del mismo autor




© Copyright 2003 Sergio Moriello.
© Copyright 2003 REDcientífica.
Todos los derechos reservados.


[Evaluar este artículo]








              Misión de REDcientífica              Condiciones de publicación              E-mail de contacto



  Bookmark and Share