Es que, en esencia, todo ser humano puede escoger una sola y única opción, entre el gran número de ellas que se le presentan en cualquier momento de su existencia. La elección de una acción implica automáticamente el rechazo de muchas otras, por lo que no siempre es una grata situación ni tampoco un momento feliz, y a veces genera bastante angustia. A este respecto, el premio Nobel en Economía Herbert Simon sostenía que la capacidad humana de procesamiento de la información es limitada comparada con la vastedad y complejidad del mundo. En situaciones muy complicadas -por ejemplo, durante emergencias o crisis-, los seres humanos son incapaces de considerar todas las consecuencias de sus acciones y mucho menos en un tiempo relativamente corto.
Una computadora, en cambio, es capaz de evaluar cuidadosamente varias posibilidades, tomar en cuenta todos los datos disponibles, sopesar las ventajas y desventajas, valorar las posibles soluciones alternativas que presenta un problema de cualquier índole. Una máquina, no menos que un ser humano, es capaz de elegir entre diferentes alternativas. Es por eso que cuando se necesita tomar decisiones rápidas y fiables o manejar volúmenes infinitamente grandes de información, la computadora supera ampliamente al cerebro humano. Tómese como ejemplo una central telefónica de una gran ciudad durante un fin de año, en que todo el mundo quiere hablar por teléfono. Ningún operador humano puede tomar eficientemente decisiones en situaciones parecidas a ésta con la misma asombrosa rapidez y precisión que éste tipo de máquina.
Por otra parte, es indudable que el disponer de más y mejor información reduce la probabilidad de equivocación y aumenta el grado de confianza en las propias decisiones, pero no necesariamente mejora su calidad o exactitud y puede -además- originar un exceso informativo, una contaminación informática. En efecto, paradójicamente, más información no significa muchas veces otra cosa que mayor confusión. Un exceso de datos -sobre todo si llega de forma desordenada y aleatoria- puede crear en la persona una poderosa sensación de incertidumbre al enfrentarla a infinidad de opciones. Y el avance de la tecnología se encarga de que cada individuo se encuentre permanentemente conectado -y, en consecuencia, expuesto- a un constante flujo de datos que no puede asimilarse (servicios de noticias de Internet, canales de televisión, videos, películas, llamadas telefónicas, correos electrónicos, mensajes, facsímiles, periódicos, libros, revistas, etc.). Está fisiológicamente demostrado: cuanto más información trata de recibir el cerebro, menor es la cantidad total que asimila realmente. Al volverse complejo el entorno, el órgano biológico ya no puede tener en cuenta simultáneamente muchas de las variables y tomar decisiones eficientes. En vez de actuar con ellas con rapidez, se paraliza.
Actualmente las computadoras juegan un papel muy importante en los procesos de toma de decisiones, ya que colaboran con el hombre aumentando su rendimiento y reduciendo los tiempos de dichos procesos. Incluso ya hay sistemas que ayudan a los expertos en aquellas áreas donde, hasta el momento, no era posible realizar funciones “inteligentes” . Es previsible que ese papel se incremente considerablemente en un futuro inmediato con el desarrollo de sistemas mucho más inteligentes que sustituyan -al menos parcialmente- a la mente humana en la toma de grandes e importantes decisiones... en especial aquellas que afectan a millones de personas o involucran miles de millones de dólares.
Aunque el uso de un sistema informático inteligente parece otorgarle objetividad al análisis, la calidad de esta toma de decisiones puede resultar inferior. En efecto, en muchos casos, una inteligencia natural duda entre hacer lo correcto y hacer lo prudente. Una inteligencia artificial, en cambio, estaría libre de estas tensiones, simplemente estaría programada para hacer lo que está bien. Serenas e imperturbables, podría tomar decisiones difíciles fuera del ego, de la subjetividad, de la presión y de la necesidad emocional humana; en consecuencia trataría fría y objetivamente sólo con los hechos de cada caso, llegando a aquellas conclusiones lógicas que tengan las mejores consecuencias de acuerdo con los objetivos que se le han fijado. No obstante, también podría tomar decisiones que, aunque lógicas, fueran antihumanas. Por ejemplo, y teniendo en cuenta únicamente la lógica, se podría sentenciar la muerte de millones de personas inocentes con el deseable objetivo de terminar definitivamente con el problema de la superpoblación, la escasez de alimentos o las cuestiones ecológicos.
En aquellos casos en que no se consideren los factores no cuantificables o no se valorase apropiadamente su importancia, una máquina inhumana conduciría a una toma de decisiones invariablemente inhumana. Como afirma el famoso científico y divulgador Carl Sagan, “sería un desatino dejar que las computadoras, en su presente estadio tecnológico, tomaran las decisiones importantes, y no porque no pueda reconocérseles cierto grado de inteligencia, sino porque siendo a veces los problemas muy complejos, no se les facilita toda la información pertinente”.
Por otra parte, está convencionalmente admitido que una computadora no elige libremente, y esto tranquiliza a la mayoría de las personas. Cada una de las decisiones de la máquina es el resultado inevitable de su programación: al hacer su elección se limitó a seguir estrictamente las instrucciones que el programador o el grupo de programadores almacenó -alguna vez- en su vasta memoria. Pero…, ¿no pasa lo mismo con el ser humano?, ¿no está éste programado, en cierta medida, por la compleja interacción entre la presión cultural y su dotación genética? En efecto, podría pensarse que muchas de las elecciones supuestamente libres que toma un individuo se deberían, en realidad, principalmente a lo heredado por la genética, pero que -más tarde- se moldea a través de las influencias externas, como los otros contextos o los inhibidores sociales. Por intermedio de los genes, las influencias que modelan las propias decisiones se retrotraen a las vidas de incontables generaciones de antepasados. De forma semejante, a menudo cada persona elige de acuerdo con las preferencias imbuidas, primero, por padres y familiares y, posteriormente, por su entorno social (amigos, compañeros, vecinos y maestros). Es así como cada individuo aprovecha toda la experiencia adquirida por el grupo social en el que vive o se ha educado. También, y por último, una determinada elección puede estar influenciada por los efectos de la experiencia prenatal o infantil, una fobia no reconocida u otros factores ocultos.
La ventaja de disponer de una máquina, en aquellos casos en que se justifique su uso por diferentes motivos, es que en su programación puede haber intervenido un grupo importante de personas provenientes de diversas disciplinas, con diferentes experiencias y tanto hombres como mujeres, lo cual le permitiría tener en cuenta -en forma más clara y abarcativa- una mayor variedad de perspectivas. En el caso de que la decisión la tomara un sólo individuo, su conjunto de experiencias sería -obviamente- más limitado.
Los procesos de toma de decisiones son muy útiles para la resolución de problemas, la cual desempeña un papel fundamental para la mayoría de las aplicaciones de la informática. De hecho, la capacidad de resolver problemas suele usarse como una medida de la inteligencia tanto para el hombre como para la computadora.
Para algunos problemas existen procedimientos conocidos que, si se ejecutan bien, garantizan una solución exitosa. Estos procedimientos -precisos, definidos y finitos- se conocen con el nombre de algoritmos. No obstante, pocos problemas de la vida real se prestan a soluciones computables. Las situaciones reales son normalmente complejas, casi siempre imprecisas y no estructuradas. En estos casos, lo más difícil es tal vez saber si los hechos son realmente verdaderos y si están incluidos aquellos verdaderamente relevantes.
Evidentemente, un problema sin solución algorítmica no es informatizable y, por lo tanto, no puede resolverse por computadora. Asimismo, y aunque se sabe que cuenta con un algoritmo de solución, hay muchos problemas que no pueden tratarse por ninguna computadora por múltiples causas: porque la potencia computacional requerida es sencillamente insuficiente; porque el algoritmo desarrollado ocupa una cantidad desorbitadamente grande de memoria; o porque el procesamiento es penosamente lento.
No obstante, hay varios tipos de problemas para los cuales lo principal es encontrar una solución, cualquier solución, con el mínimo de esfuerzo. En estos casos es más importante encontrar una solución rápida aunque no fuese la óptima, encontrar una solución satisfactoria y suficientemente buena, aunque no fuese perfecta. El saber, en estas técnicas de búsqueda, se torna imprescindible y fundamental.
En general, cuando se analiza éste tipo de problemas, cada acción adoptada abre nuevas posibilidades de acción, una especie de ramificación, denominada “árbol de decisiones”. Si el árbol es muy “frondoso”, si crece y crece, ramificándose incrementalmente, ni siquiera una computadora convencional (presente o futura) puede explorar en profundidad todas las alternativas, todas sus “ramas”. Por esta razón, hay que “podar el árbol”, de manera de enfocar más rigurosamente el análisis sobre las acciones más prometedoras y eliminar o postergar las menos interesantes. Para ello, la Inteligencia Artificial (una especialización de la informática y abreviada IA) recurre a varias reglas empíricas denominadas heurísticas, que representan los trucos del oficio, las decisiones correctas consecuencia del buen “saber hacer” acumulado por un experto a lo largo de su dilatada experiencia profesional. Las heurísticas son, por naturaleza, normalmente dependientes de la situación y de la tarea, pero ofrecen la posibilidad de obtener soluciones rápidas, quizás inmediatas, equivalentes al golpe de intuición del experto. Sin embargo, estos métodos no son generales o fácilmente generalizables y no pueden garantizar anticipadamente el hallazgo de la solución.
No obstante, resolver problemas que jamás fueron encarados anteriormente requiere algo más que memoria, velocidad y habilidad para manipular datos. Exige poder pensar algo que nadie pensó nunca, integrar las cosas de manera diferente. Algunos llaman a esto creatividad; otros, capacidad asociativa o imaginación. Aunque ya hay máquinas que realizan descubrimientos científicos, que están entre los diez mejores jugadores de ajedrez del mundo o que componen bellas melodías, todavía no es posible transmitirles la enorme cantidad de asociaciones que hace la mente humana cuando, por ejemplo, escribe obras poéticas. En estos casos, el aprendizaje juega un papel crucial...
Según el psicólogo Jean Piaget, algunos de los conocimientos humanos son innatos y ya están estructurados en su memoria, pero la mayor parte hay que aprenderlos por ensayo y error. Así, el hombre tiene penosamente que aprender casi todas las destrezas y todo el conocimiento que necesita para poder sobrevivir, desde el simple acto motriz de caminar hasta las habilidades intelectuales avanzadas como el cálculo diferencial. No obstante, sólo se puede aprender aquello que permite la maduración neurofisiológica: existen muchos conocimientos cuya adquisición se ve demorada a fin de que el cerebro alcance un adecuado nivel de desarrollo.
Pocos aprendizajes son totalmente nuevos; la inmensa mayoría está basado en el aprendizaje previo y es una extensión del mismo. Es por eso que la información que se recibe aislada, que no está relacionada, que no tenga nada en común o que no repose sobre estas estructuras, no es de utilidad: es necesario integrar la nueva información al conocimiento que ya se tiene, un proceso que Piaget denominó “asimilación”. De este modo, aprendizaje no es lo mismo que absorción de información: el cerebro no puede desarrollarse únicamente acumulando nuevos conocimientos; también necesita gestionar y organizar lo que ya sabe. Además, cuanto más se haya aprendido, cuanto más se pueda relacionar el nuevo aprendizaje con las experiencias o los conocimientos previos, más fácil y más rápido le resultará a esa persona continuar aprendiendo; en caso contrario, el proceso se tornará verdaderamente difícil.
El aprendizaje se traduce en cambio, en originales y mejoradas formas de hacer algo, en nuevas maneras de percibir viejas situaciones. A través del aprendizaje uno adquiere la habilidad para hacer algo que antes no era capaz de hacer, uno se recrea a sí mismo, se modifica y complejiza y, en última instancia, termina siendo distinto. En efecto, el ser humano va impregnando su conducta, desde el mismo momento de su nacimiento, con pautas regladas de interacción social, con información transmitida por sus padres y educadores, con observaciones propias del mundo. De este modo, las enseñanzas implícitas exceden -por mucho- al caudal de la enseñanza explícita.
Por último, el aprendizaje está fuertemente asociado al uso de mecanismos de memorización. Dado que un comportamiento inteligente se basa en la capacidad de adaptación, es fundamental contar no sólo con la habilidad para almacenar las diferentes experiencias sobre el mundo circundante, sino también con la aptitud para reconocer cuáles de esas experiencias almacenadas se asemejan más a las nuevas situaciones y, de ese modo, recordar cómo se resolvieron problemas parecidos en otras oportunidades.
Hasta ahora ninguna máquina tiene verdaderamente la capacidad de reproducir una habilidad natural del hombre: la de acrecentar su conocimiento del mundo, adaptar su comportamiento a nuevas situaciones y mejorar gradualmente gracias a la experiencia. La facilidad para aprender es fundamental para una inteligencia completa; es dudoso que una inteligencia artificial pueda tener éxito sin ella. La solución de problemas, la comprensión y todas las demás funciones de la inteligencia, incluso el mismo aprendizaje, dependen crucialmente del saber, de los conocimientos previos.
Para conseguir que la máquina aprenda hay que saber, previamente, cómo representar -dentro de su memoria- todo ese conocimiento implícito, de sentido común, toda esa red de conceptos que logra adquirir el ser humano con los años y cómo relacionar esos conceptos, esas diversas piezas de conocimiento, entre sí. “Por ejemplo, para explicarle a una computadora por qué el orificio de una botella va en la parte superior de ésta y no debajo, hay que explicarle la teoría newtoniana de la gravedad. Nosotros sabemos abrir puertas y bajar escaleras. La máquina, si no se lo enseñamos, lo ignora”, señala Marvin Minsky, uno de los máximos expertos en el campo de la IA.
El principal objetivo del “aprendizaje automático” consiste en otorgar a la máquina la habilidad de mejorar su comportamiento con relación al comportamiento anterior. Se trata de conseguir que los sistemas puedan deducir conceptos o información que no se le hubiera dado explícitamente, que aprendan de sus propios errores y se beneficien -en consecuencia- de su propia experiencia. En el caso ideal, lo único que se tendría que codificar inicial y explícitamente sería una amplia “base de conocimientos generales” y algunas rutinas y reglas heurísticas que le sirva de ayuda para adquirir -por su propia cuenta- nueva información externa y comprender nuevas situaciones, a medida que la máquina vaya teniendo “experiencias”. No obstante, este “aprendizaje” está limitado actualmente por la propia función que la máquina irá a desempeñar. Por ejemplo, un sistema de reconocimiento digital de caras, puede acelerar incrementalmente su desempeño con la acumulación de información en su “base de conocimientos”. Por eso, rigurosamente, la palabra “aprendizaje” no tendría el mismo alcance al aplicársela a hombres y a máquinas: decir que el aprendizaje humano es igual al aprendizaje maquínico, sería equivalente a decir que todo animal es un primate, cuando obviamente éste es sólo un subconjunto de aquel.
Hay distintos tipos de aprendizaje maquínico. El más elemental (pero también el más eficaz) para una computadora es el aprendizaje por implantación, en donde el conocimiento se absorbe por pura “memorización”. Así, la máquina puede adquirir conocimiento con mucha mayor facilidad y rapidez que el ser humano e incorporarlo, sin riesgo de olvido, a su memoria. Un poco más complicado es el aprendizaje por deducción, en el cual se parte de reglas generales y se llega a la determinación de hechos específicos o al perfeccionamiento de estrategias ya desarrolladas. También está el aprendizaje por inducción, a través del cual se le suministran datos a la computadora y ésta extrae el conocimiento a partir de ellos. En éste método se verifican dos modalidades: a partir de ejemplos (supervisado) y a partir de observaciones (no supervisado). En el primer caso, se presentan ejemplos correctos e incorrectos, para que la máquina -por sí misma- extraiga reglas, leyes o conceptos de más alto nivel. En el segundo caso, la máquina sólo “observa”, debiendo descubrir -por sí sola- los rasgos comunes en el grupo de datos observados, a fin de poder clasificarlos. Finalmente, un método muy potente es el aprendizaje por analogía, en el cual se aprovecha el conocimiento de la solución de un problema previo, para así hallar cómo resolver un problema similar actual.
Resulta sencillo programar una computadora para que tenga un conocimiento enciclopédico de datos diversos, atiborrar su enorme memoria con una vasta cantidad de datos, pero -al igual que en el caso del hombre- aprender muchas cosas de memoria no es lo mismo que saber mucho. Es necesario recordar esa información cuando resulte de utilidad, cuando permita elaborar argumentos razonados y no sólo recitar citas históricas. Por eso, sólo hay verdadero aprendizaje cuando hay comprensión; es decir, cuando se es capaz de captar la relación de las partes entre sí y con el todo. “Si un programa ya sabía que María era la madre de Jaime, saber que Juan era el hermano de Jaime significaba comprender que María era también la madre de Juan, que Juan y Jaime se conocían, hablaban el mismo idioma y compartían la misma cultura. Si se le preguntaba más, hubiera podido añadir que probablemente serían parecidos, que no se llevarían del todo mal y que su diferencia de edad no sería superior a los 15 años”, ejemplifica Daniel Crevier, filósofo y especialista en IA.
¿Podrá una máquina -alguna vez- aprender a resolver un problema, sin depender siempre de un ser humano para que le enseñe acerca de ese problema? ¿Será capaz de conseguir la información que necesita y que esté fuera de ella, por ejemplo, en Internet o en una biblioteca? ¿Sabrá luego archivar en su memoria esta nueva información, relacionarla adecuadamente y utilizarla, a partir de ese momento, de manera creativa, como lo exige la vida? ¿Sorprenderá, de esta forma, con una original demostración de un teorema matemático, una jugada maestra de ajedrez o una paradoja filosófica?
Si alguna vez las máquinas fueran capaces de aprender por sí mismas, podrían incorporar automáticamente todo el conocimiento disponible en enciclopedias, libros, manuales, etc., sobre muy distintas materias, así como gestionar un espectacular volumen de datos buscando incansablemente las más inverosímiles relaciones y las más oscuras conexiones entre esos datos. Sin embargo, para lograr que una computadora sea inteligente, hay que enseñarle a dirigir su propio aprendizaje. En efecto, no tiene mucho sentido aprender todo lo registrado en libros y revistas, todo lo grabado en radio y televisión o todo lo enunciado en conferencias. El aprendizaje implica selección, y se debe evaluar la importancia relativa del material de acuerdo con los propios objetivos.
Las nuevas generaciones de máquinas inteligentes se introducirán subrepticia y gradualmente en todos los niveles de la sociedad, porque no sólo serán muchísimo más rápidas que las que están diseñándose o por diseñarse en la actualidad, sino que contendrán enormes bases de conocimiento, que permitirán extracciones asociativas muy rápidas. Utilizando el paralelismo tanto en el nivel de la estructura de los programas (software) como en el nivel del equipamiento físico (hardware), conseguirán una elevada velocidad de procesamiento de datos. Contarán con avanzadas interfaces que le permitirán comunicarse con el hombre a través del lenguaje natural, los gestos y las imágenes. Además, y quizás lo más importante, podrán percibir el entorno (viendo, escuchando, oliendo) y podrán aprender de él.
A inicios del segundo semestre de 2000, IBM presentó la “ASCI White”, una supercomputadora que ocupaba el espacio de 2 canchas de basket, pesaba más de 100 toneladas y consumía la potencia de casi 1.000 casas típicas (1,2 MWatt). Pero lo más impresionante de esta máquina era su capacidad de procesamiento: alcanzaba los 12,3 TFLOP, o sea 12,3 billones de cálculos por segundo. Como comparación, era 1.000 veces más potente que “Deep Blue” (la máquina que derrotó a Garry Kasparov) y aproximadamente 30.000 veces más rápida que una PC hogareña promedio de ese año (la cual podía ejecutar un máximo de 400 millones de cálculos por segundo). Por otra parte, el sistema incluía 8.192 procesadores (repartidos entre 512 nodos), una memoria de 6,2 terabytes (algo así como 97.000 módulos de 64 megabytes) y una capacidad en disco de 160 terabytes (equivalente a 16.000 discos rígidos de 10 gigabytes).
Impresionante, sí..., pero otra noticia es más asombrosa aún: la construcción -por parte de la misma empresa- de la “Blue Gene”. En efecto, esta supercomputadora será capaz de realizar más de 1.000 billones de cálculos por segundo (un petaflop), o sea, 80 veces más rápida que la ASCI White. La máquina, de aproximadamente 600 m2, consistirá en 64 hileras de bastidores de 1,8 metros interconectados, entre los cuales se repartirán los más de un millón de procesadores -cada uno con un rendimiento superior a 1 gigaflop- que posee en su interior. Actualmente, y cada vez más, el mundo de la computación experimenta gigantescos adelantos en tiempos relativamente cortos. Parecería que nada detiene el imparable y soberbio ascenso de estos monstruos de silicio....
¿Qué se podría esperar de ingenios como éste, de máquinas con la capacidad de realizar decenas de billones de cálculos por segundo sin equivocarse, con la habilidad de almacenar centenares de billones de bytes y recuperar cualquier información o dato específico en el momento en que se necesite, con la aptitud para generar casi de inmediato complejos modelos matemáticos de objetos o situaciones y con la invalorable ventaja de disponer de dilatados tiempos de vida, ya que se trata de un mecanismo prácticamente inmortal? Podrían tomar infinidad de eficientes decisiones racionales en tiempos brevísimos y contener en su inconmensurable memoria toda la experiencia de la humanidad. Serían capaces de resolver problemas algorítmicos casi instantáneamente, con respecto a los tiempos necesarios que demandan las máquinas actuales. Podrían, también, hacer miles de millones de inferencias lógicas por segundo y acelerar muchísimo las búsquedas heurísticas, lo que les permitirían razonar a velocidades vertiginosas y hacerlo de forma más profunda y eficiente. Además, y si se les pudiese conferir la capacidad de aprendizaje, su potencial sería abrumador: tendrían incorporado todo el conocimiento acumulado en el mundo y leerían continuamente todas las obras publicadas, explotándolo de modo sistemático y superando ampliamente las capacidades humanas. En ese caso, tal vez sean capaces de descubrir nuevos conocimientos, pero ¿cuáles serían las aplicaciones de estos nuevos conocimientos?
Stanley Kubrick, el director de la famosa película 2001: Una odisea en el espacio, dijo en una oportunidad: “una vez que una computadora aprende por experiencia, así como por su programación original, y una vez que tenga acceso a mucha más información que la que podría poseer un gran número de genios humanos, la primer cosa que ocurre es que uno realmente ya no la entiende más, y uno no sabe lo que está haciendo o en lo que está pensando”. En efecto, los sistemas que aprenden por sí mismos podrían llegar a adquirir -algún día- características no deseadas sin que nadie tuviera que escribir ni una sola línea de programa.
Los avances suelen ir acompañados de polémica, de miedos, de personas que se sienten ofendidas y que extrañan los modos de hacer tradicionales. Cada cambio en la tecnología hace temblequear las estructuras sociales, generalmente conservadoras por mero instinto de supervivencia. Es que la historia de la tecnología no se ha caracterizado justamente por modificaciones lentas y graduales, sino por grandes discontinuidades y saltos enormes e inesperados. No obstante, y como nunca antes, durante el transcurso del siglo XX el cambio originado fue de una magnitud tal que provocó una mutación cualitativa en toda la humanidad. De todas las posibles amenazas para el género humano, la más temida y -a la vez- más irónica, es seguramente la de una toma de poder por las máquinas y, sin embargo, esta posibilidad se torna cada vez más real…
“En general, lo que provoca sentimientos ambivalentes no es la tecnología en sí, que nunca deja de ofrecer aspectos positivos. Lo que más preocupa es la velocidad y la imprevisibilidad del cambio, especialmente en cuanto no vemos su dirección ni percibimos su intensidad. Y sobre todo, el temor a que se vuelva incontrolable. […] Parece inevitable que una innovación engendre la siguiente, sin que nadie pueda controlar su aplicación”, afirma el filósofo argentino Pablo Capanna. En efecto, es de esperar que a las torpes máquinas de hoy en día, le sucederán otras más sofisticadas y mejoradas que cambiarán radicalmente la forma de vida habitual y cotidiana de las personas. La imprenta, la máquina de vapor, el automóvil, la radio, la televisión, la PC -por nombrar sólo las más recientes- son inventos cuyo impacto en la sociedad se ha extendido mucho más allá de los propósitos originales para los cuales fueron concebidos. Es muy difícil imaginar las consecuencias completas de tal situación, pero los efectos sobre la humanidad en su conjunto (la ciencia, la tecnología, la cultura, la economía, la sociedad…) serían -indudablemente- enormes.
Desde la particular perspectiva de la evolución darwiniana, la flexibilidad y adaptabilidad de las máquinas podría muy bien considerarse como un éxito notable para una especie. Se ha diversificado en millones de formas y tamaños, dominando varios nichos antes ocupado exclusivamente por los seres humanos. La especie máquina ha conseguido mantener a la especie humana en un estado de elevada y peligrosa dependencia, condicionando la totalidad de su existencia. Y este proceso no parece detenerse; todo lo contrario, se realimenta. Al crecer la confianza en las máquinas, es muy probable que el hombre deposite cada vez más en ellas el control de sus propios asuntos y que acepte sus respuestas con la humildad propia de alguien que ha dejado de ser necesario. A medida que las máquinas invariablemente se perfeccionen, y por la propia complejidad del asunto, es lógico que el control humano decrezca y los sistemas informáticos adquieran un creciente autocontrol. ¿Qué sucederá ese día en que hipotéticamente la máquina se libere y escape de todo control humano? En ese caso, es muy probable que la especie humana no persista tal cual se la conoce en la actualidad y ya no sea la fuerza dominante sobre el planeta…
La investigación en IA es una de las tareas más inmensas y controvertidas que haya emprendido nunca la mente humana. En general, la gente tiende a extrapolar el presente en línea recta, omitiendo las sorpresas, pero -como afirma Seymour Papert- es un error interpretar los efectos potenciales de la IA como simples extensiones de las tendencias actuales. Nadie sabe con precisión qué efectos causará a largo plazo, pero lo cierto es que las posibilidades son fascinantes y -al mismo tiempo- perturbadoras. Seguramente la IA será una de las tecnologías que moldeará y condicionará el nuevo siglo mucho más que todo lo ocurrido en milenios de civilización, abriendo el portal hacia una nueva era -quizás para bien, tal vez para mal, pero seguramente trascendental- en la historia del genero humano.
Sin lugar a dudas, la aparición en la Tierra de un sistema que cuente con una inteligencia artificial próxima o superior a la humana supondrá un reto considerable para la autoestima de la especie y, principalmente, para su propia supervivencia. El hombre siempre tuvo, a lo largo de la historia, un pánico visceral a las consecuencias de la fabricación de una entidad susceptible de superarlo, pero -al mismo tiempo- siempre le fascinó esa irrefrenable idea de perpetuarse en su forma esencial. “Indudablemente, el gran miedo no es que la máquina nos dañe, sino que nos suplante. No es que nos deje incapacitados, sino que nos vuelva obsoletos”, dice el conocido científico, divulgador y escritor Isaac Asimov. En efecto, es infantil pensar que los sistemas informáticos progresaran hasta alcanzar el nivel de inteligencia del ser humano medio y, de repente, se detuvieran. Una vez que llegaran hasta este punto, su capacidad intelectual podría sobrepasar con holgura el nivel humano en relativamente poco tiempo, ya que fácilmente serán capaces de hacer copias evolucionadas de sí mismos. “Las máquinas superinteligentes acabarán extinguiendo el género humano” afirma Bill Joy, uno de los fundadores de la conocida Sun Microsystems. Algo similar opina el filósofo inglés Nick Bostran: “si la inteligencia artificial supera a la humana, nuestro destino estará en sus manos. Estos seres superinteligentes se desentenderán o se desharán de nosotros por ineptos”...