En 1976, Joseph Weizenbaum publicó Computer Power and Human Reason [El poder del ordenador y la razón humana]. Básicamente Weizenbaum admitía la viabilidad de la I.A., pero se oponía a ella basándose en razones morales. Hacia 1965, Weizenbaum trabajaba en el MIT, intentando que los ordenadores hablaran en inglés con la gente. Pensó que los programas existentes como STUDENT se basaban en dominios limitados, y los dominios que describían esos programas estaban ligados a la propia estructura del programa. Y dado que Weizenbaum se dio cuenta de que no podría conseguir ese fin en tan poco tiempo, penso en crear un programa con unas cuantas ideas que se le habían ocurrido.
Una de esas ideas era que el conocimiento sobre los dominios se encontrase en módulos ajenos al propio programa, así cambiar de tema seria tan fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue el que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía en funcionamiento una terapia que consistía simplemente en animar a los pacientes a hablar de sus problemas, respondiendo a sus preguntas con otras preguntas). El programa en cuestión recibió el nombre de ELIZA (ahora todo un mito de la historia de la I.A.). Aunque a simple vista ELIZA parece estar hablando animadamente con la persona que le cuenta sus problemas, la verdad es muy diferente. ELIZA hace creer a su interlocutor que se está hablando con "un ser" que razona y entiendo, realente todo ello se logra mediante trucos como repetir frases cambiando "yo" por "tu", o echar mano a una frase del principio cuando el "hilo" se acaba transformándola en pregunta. Otro truco utilizado por este programa es insertas frases como "ya veo" o "háblame más acerca de esto". Algo con lo que contaba a su favor ELIZA era que el planteamiento de las conversaciones seguirían siempre un patrón común de los psicoanálisis rogelianos ¿en que otra conversación no iba a resultar extraño escuchar frases como esta "háblame algo más acerca de los coches rojos con motas verdes que apartan cerca de tu casa"?. Por lo que no es de extrañar que, cuando Daniel Bobrow probó como conejillo de indias a un vicepresidente de ventas de la BNN, haciendo que este hablara con ELIZA mientras creía estar haciéndolo con el mismo Bobrow a través de un terminal, la conversación entre ambos surgiera así:
Persona>¿Crees que no puedo utilizar el ordenador esta mañana?
ELIZA>¿Por qué me lo preguntas?
Persona>Debería hacer algunas ventas más por la red.
ELIZA>¿Por qué no estas seguro?
Persona> Mis clientes potenciales nunca han visto una demostración de este sistema
ELIZA>¿Eso significa mucho para ti?
Persona>Naturalmente
ELIZA>Pareces entusiasmado con eso
Persona>Esto es ridículo
ELIZA>¿Qué quieres decir con que esto es ridículo?
Persona>¿Hay alguna razón por la que no pueda utilizar ahora el ordenador?
ELIZA>Cuéntame algo más acerca de tus clientes potenciales
Aunque en cierta forma, nosotros que estamos sobre aviso detectamos algo "sospechoso" en esta conversación, podríamos decir que esta no es del todo negativa. Entonces, ¿estamos en posición de afirmar que ELIZA ha superado el test de Turing?, NO, pues en la prueba de Turing debía de enfrentar a dos partes, una persona y un ordenador, ambas debían de comportarse de forma normal y habría que averiguar quien era la persona y quien el ordenador, este hecho quedaría al descubierto en cuanto ELIZA dijese (por ejemplo): "Cuéntame algo más acerca de tus gusto por las películas en versión original", en una conversación normal no se utilizan esas expresiones. Lo que realmente le preocupaba a Weizenbaum era que mucha gente no se enfrentaba a ELIZA con la actitud adecuada. Aún sabiendo de lo que se trata realmente, habían personas que llegaban a creerse la humanidad y la compañía de ELIZA, hasta el punto de que, un famoso científico soviético en una conversación con ELIZA empezó a hablar con la máquina a un nivel muy personal, todo ello delante de sus anfitriones norteamericanos (en Stanford). Weizenbaum explicó en su libro Computer Power and Human Reason, que los seres humanos no se pueden reducir a una máquina de procesamiento de información puesto que, en gran medida, un organismo se define por los problemas que puede abordar. Nosotros nos enfrentamos a problemas de los que ninguna máquina puede hacerse cargo. Hay nociones que ninguna máquina podrá entender nunca porque las máquinas no comparten nuestros objetivos.