El inicio de la visión artificial, desde el punto de vista práctico, fue marcado por Larry Roberts, el cual, en 1961 creó un programa que podía "ver" una estructura de bloques, analizar su contenido y reproducirla desde otra perspectiva, demostrando así a los espectadores que esa información visual que había sido mandada al ordenador por una cámara, había sido procesada adecuadamente por el.
El inicio de la visión artificial, desde el punto de vista práctico, fue marcado por Larry Roberts, el cual, en 1961 creó un programa que podía "ver" una estructura de bloques, analizar su contenido y reproducirla desde otra perspectiva, demostrando así a los espectadores que esa información visual que había sido mandada al ordenador por una cámara, había sido procesada adecuadamente por el. El programa buscaba transiciones bruscas entre valores de grises, lo que correspondería a los bordes de los objetos, a continuación encajaba las líneas rectas con los puntos identificados como esquinas, las cuales utilizaba para delimitar las caras de los bloques, después determinaba que caras se juntaban para formar cada bloque, corregía sus perspectiva para mostrar la figura desde otro enfoque y calculaba la distancia a la cámara. Pero, claro, si el programa buscaba "transiciones bruscas entre los valores de grises", este programa no solo no valdría con los cubos negros, sino que no valdría con casi ningún cubo, solo, con los que se fabricasen para la experimentación de este proceso, es decir, era la visión del micromundo por excelencia.
Pero la visión de cubos, o de cualquier figura geométrica, cuando estas están al borde de perder esa definición en el mundo real ¿vale realmente para algo?. Es una pregunta difícil de contestar, porque todo va en función de las circunstancias, pero SÍ, la respuesta es sí, porque ¿qué sería de la experimentación científica si no se abordasen todos los caminos posibles, aunque a primera instancia parezcan ser callejones sin salida?.
Gerald Sussman, estudiante de primer año del MIT hacia 1966, fue contratado por Marvin Minsky para que solucionara "de una vez por todas" el problema de la visión artificial. Con este encargo parecía como si Minsky quisiera quitarse de encima uno de los más difíciles problemas de la I.A., tratando este asunto como uno más. El enunciado según Minsky, es sencillo: "Conectar una cámara de televisión a un ordenador y hacer que este describiera lo que la cámara captaba", lo que ahora cualquier investigador de inteligencia artificial describiría como "¡casi ná!". Pero este tipo de aventuras eran, justamente, en las que se embarcaban todos los científicos de I.A. por esas épocas, así pues no debemos asustarnos de tanta ingenuidad, solo aprender de sus errores y saber que nada es tan fácil como parece y que todo es más complejo de lo que pensamos. Al final este proyecto se tubo que paralizar, y Minsky creó otro proyecto asociado, llamado "micromundo de bloques".
Por supuesto que un sistema capaz de visualizar su entorno, y no solo eso, claro, sino poder describirlo y entenderlo: llegar a una comprensión de esa información, sería algo espectacular y grandioso en I.A., pero el mundo que se percibe desde lo real (los sentidos), no es más que una representación abstracta de algo, que contiene funciones reales, que si no son abstractas, poco les falta, es decir: una mesa en si misma, no tiene características propias de mesa, porque la mesa, como algo absoluto con características universales, no existe, ¿quién me dice a mi que esa masa de ahí no es una mesa?, claro, todo es materia "desordenada" hasta que se encuentra una función para cada una si yo, me imagino sentado cerca de esa "masa", y observo que en efecto, esta me llega al pecho, pues si... puede que se trate de una mesa. Nosotros, los humanos, por nuestra parte, vivimos en un entorno de percepción, asociación y comprensión, pero a la vez, pretendemos que el ordenador no asocie su entorno de la misma forma lógica, sino que su trabajo sea mecánico, que cuando vea una mesa, diga: MESA, porque sí, porque es lo que es, pero... ¿qué es una mesa?, ¿y una mesa al revés?... ¿qué es una mesa al revés? ¿eh?... son meros utensilios que hemos creado, con cierta ingeniería de lo útil, para que nos facilite la vida y nos la haga más cómoda, cuando uno de estos utensilios se nos es presentado por primera vez, podremos dudar cual es su funcionamiento, pero al final acabamos buscándole una función, que, claro está, es para la que ha sido creado (aunque no siempre debe ser así: hay libros que sujetan camas cojas...). Entonces, el ordenador debe, por analogía lógica, percibir el mundo de esta misma forma, asociar como se pueden utilizar los objetos, y designar, por esa condición qué son, teniendo su utilidad como mayor seña de su identidad. Pero... si un sistema de inteligencia artificial, es, pongamos por caso, un ordenador conectado a una cámara y un par de sensores de distancia... ¿qué va ha significar una mesa para el?, el, que nunca se ha sentado, que no la necesita, y que es más... no tiene cuerpo, no solo adecuado para sentarse, sino que este, no es móvil. Pues bien, y aunque esta pregunta es algo complicada, porque cada sistema inteligente tiene su función..., pongamos por caso que la función de este fuera identificar "cosas", el ordenador debería saber (o haber aprendido) que el mundo, es, primordialmente del ser humano, entonces, ya debería haber conocido que y como es una persona y, por consiguiente, asociar un mundo hecho por y para personas con las que lo pueblan. Pero ese ejemplo también le valdría a el si tuviese autonomía móvil, pues el mundo le ofrece un sinfín de utensilios que a el le pueden servir como el libro de 45 páginas a la pata coja de una cama.
Otros documentos del mismo autor
|
|
[Evaluar este artículo]
|