ISSN: 1579-0223
 
Sentience Research
REDcientífica
· Misión de REDcientífica
· Contacto
· Condiciones de publicación
· Consultar todos los documentos
· Consultar todos los autores
· Acceso usuarios registrados
· English version


PORTADAS
40  41  42  43  44  45  46  47  48  49  50  51  52  53 

BOLETINES
40  41  42  43  44  45  46  47  48  49  50  51  52  53 

TEMAS



ENLACES

Del conocimiento tácito al dato explícito

Daniel López Rodríguez
 
ImprimirEnviar

El presente artículo pretende vincular, aun más, los conceptos de minería de datos y gestión del conocimiento, más allá del concepto del data mining como herramienta de gestión del conocimiento. Se pretende enfatizar la relación a partir del ciclo de conversión del conocimiento descrito por Nonaka y Takeuchi (1995), explicando el origen o descubrimiento del conocimiento, diferenciando el tipo de conocimiento que se utiliza o genera, y describiendo a modo de ejemplo el papel que juega la minería de datos como fuente de descubrimiento y generación de conocimiento que servirá de base para las futuras toma de decisiones.


1. INTRODUCCIÓN.

El día a día nos dice que la diferencia competitiva entre las empresas se concentra en un nuevo factor: la información y sobre todo, en su adecuada sistematización en orden a convertirla en conocimiento. Las empresas ya saben que las ventajas competitivas, a medio y largo plazo, no van a venir de la información, algo que en mayor o menor medida es de acceso universal y no representará ningún valor diferenciador, sino del conocimiento, entendiéndole como el grado de incorporación, sistematización y utilización de esa información en orden a mejorar los resultados de las empresas. La información en sí misma no supone ninguna ventaja, su sistematización es la que aporta ese valor añadido.

N e w m a n (1997) desarrollo un modelo que bajo la denominación de datos-información-conocimiento-tecnología, sostiene que el control y monitorización de los procesos sólo produce datos, pero el análisis de dichos datos realizado con técnicas estadísticas o de minería de datos (data mining) y su contextualización es lo que proporciona información. Cuando, finalmente, la información es interpretada, ésta se transforma en conocimiento útil.

De todo lo anterior se deduce que la explotación del conocimiento en aras de la obtención de una ventaja competitiva sostenible requiere de alguna herramienta que lleve a cabo esa sistematización de la información.

2. LA INFORMACIÓN AL SERVICIO DEL CONOCIMIENTO.

Nadie pone en duda el papel que juegan las tecnologías de la información y comunicación en las organizaciones y esto se hace, lógicamente, extensible a la gestión del conocimiento. Concepto que la mayoría de los autores definen de manera símil y que sólo se torna en diferencia a la hora de enfatizar en uno u otro elemento. Pero, en definitiva, todos los autores concluyen en que la gestión del conocimiento se compone de tres elementos sustanciales: la información o los datos, su sistematización y organización, y el objetivo de mejorar la cuenta de resultados. Para alcanzar la mejora en la cuenta de resultados, las organizaciones, de un modo u otro, aplican técnicas o utilizan herramientas informáticas de gestión del conocimiento que responden a enfoques y aproximaciones diferentes. Puede decirse que no existe una única combinación de técnicas y herramientas, ni una metodología exclusiva para llevar a cabo con éxito el proceso de gestión del conocimiento, pero si es cierto que, técnicas como la minería de datos se han convertido en un aliado de la gestión del conocimiento a la hora de analizar todo el "conocimiento explícito" que las empresas ya disponen, en forma de dato, en sus bases de datos.

3. LA CLASIFICACIÓN DEL CONOCIMIENTO

A la hora de hablar de conocimiento existe una serie de conceptos aparentemente similares que dificultan su entendimiento. Conocimiento no es lo mismo que datos, ni tan siquiera lo mismo que información. Los datos son los elementos base de la pirámide del conocimiento. Al conjunto de datos organizados y analizados en un contexto determinado lo denominamos información. Pero información, como decíamos, no es lo mismo que conocimiento. Recopilar datos, organizarlos e incluso analizarlos, es algo que pueden hacer (y en algunos casos mejor que los seres humanos) el software informático. Ahora bien, al conocimiento, de momento, no llegan los ordenadores. EL conocimiento es un paso adelante. Es identificar, estructurar y sobre todo utilizar la información para obtener un resultado. Requiere aplicar la intuición y la sabiduría, propios de la persona, a la información. La capacidad de interpretar esos datos es lo que provoca que la información se convierta en conocimiento.

Según Nonaka y Takeuchi (1995) existen dos tipos de conocimiento. Dadas sus características el conocimiento explícito se ha definido como el conocimiento objetivo y racional que puede ser expresado con palabras, números, fórmula, etc., también se le denomina explícito. Por otro lado tenemos el conocimiento tácito, que es aquel que una persona, comunidad, organización o país, tiene incorporado o almacenado en su mente, en su cultura y es difícil de explicar. Es necesario explicar que este conocimiento puede estar compuesto por:

- Ideas, experiencias, destrezas, habilidades, costumbres, valores, historia, creencias...

- Conocimiento del contexto o ecológico (geografía, física, normas no escritas, comportamientos de personas y objetos, etc.),

- Conocimiento como destreza cognitiva (compresión de la lectura, resolución de problemas, analizar, visualizar ideas, etc.) que le permite acceder a otro más complejo o resolver problemas nuevos.

Cuando estos conocimientos nos permiten actuar se llaman competencias o conocimiento en acción. El problema que presenta este tipo de conocimiento es su dificultad a la hora de transmitirlo, por ello es necesario gestionarlo creando códigos que faciliten su transmisión.

Para la gestión del conocimiento la dimensión tácita del conocimiento es una parte del conocimiento personal y organizacional, que se hace visible cuando se utiliza para ciertas situaciones donde el conocimiento codificado o explícito es insuficiente para enfrentar dicha situación.

4. EL CICLO DE CONVERSIÓN DEL CONOCIMIENTO

La transmisión del conocimiento tácito no resulta fácil y para que pueda ser rentabilizado es necesario sustraerlo del contexto de origen y formalizarlo, con lo que se genera un "ciclo de conversión" que Nonaka y Takeuchi (1995) describen en cuatro procesos:

1) De tácito a tácito: El paso de conocimiento de tácito a tácito se produce a través de procesos de socialización, es decir, a través de la adquisición de conocimientos e información mediante la interacción directa con el mundo exterior: con otras personas, con otras culturas,etc.

2) De tácito a explícito: Se produce a través de la externalización, que podríamos definir como el proceso de expresar algo, el diálogo. Externalizar es convertir imágenes y/o palabras a través del diálogo..

3) De explícito a explícito: Este paso se denomina combinación. Como su propio nombre indica, se combinan diferentes formas de conocimiento explícito mediante documentos o bases de datos.

4) Tácito a tácito: es la Interiorización del conocimiento, y consiste en la incorporación del conocimiento tácito por parte de los individuos de cualquier organización.

5. PROCESO DE CONVERSIÓN DEL CONOCIMIENTO

A la hora de utilizar técnicas de minería de datos en un determinado proyecto, el proceso que se está llevando a cabo es una "extracción no trivial de información implícita, previamente desconocida a partir de los datos", a nivel del conocimiento explicito, con el fin de descubrir patrones, relaciones, reglas, asociaciones o incluso excepciones útiles, que deberemos de interiorizar, para posteriormente externalizarlo en la toma de decisiones.

La manera de analizar los datos por parte de la minería de datos es bastante similar, independientemente de la técnica que utilicemos, aunque cada proceso de minería de datos es un "caso", podremos adaptar y modificar estos pasos según las propias características del proyecto en el que nos encontremos inmersos:

- Selección y procesado de los datos

Por norma general los datos que residen en una base de datos no se encuentran en el formato más adecuados para nuestros algoritmos por lo que será necesario realizar diversas operaciones sobre ellos. Por ejemplo podemos realizar un filtrado de valores incorrectos/inadecuados, o un muestreo (extraer una muestra de la población total para trabajar así con un numero más reducido de datos), que puede ser aleatorio, o establecer que cumplan unas determinas características, reducir el número de valores a través de técnicas de redondeo, clustering...

- Selección de Características

Una vez determinada la población sobre la que vamos a realizar nuestra investigación nos encontraremos, probablemente, que el número de datos con el que trabajamos es muy amplio, así que, llevaremos a cabo una selección de características de los datos, es decir, determinaremos aquellas variables que nos interesan, con el objetivo de simplificar los datos y realizar el proceso lo más sencillo y rápido posible. Podemos utilizar diferentes técnicas estadísticas o métodos gráficos que nos permitan observar las relaciones existentes entre las variables.

- Uso de un algoritmo de extracción de conocimiento

En este apartado aplicaremos la técnica de minería de datos que hayamos determinado anteriormente para obtener un modelo de conocimiento con los patrones de comportamiento y las reglas de asociación entre las variables.

- Interpretación y evaluación de los resultados

Verificaremos si los resultados obtenidos son coherentes y los cotejaremos con los obtenidos por los análisis estadísticos y de visualización gráfica. Posteriormente determinaremos si son novedosos y si nos aportan un nuevo conocimiento que podamos considerar en nuestras decisiones.

En el caso de que los resultados obtenidos difieran, deberemos elegir aquel que más se ajuste o nos proporcione una mayor de confianza. En el caso de que ninguno satisfaga nuestras expectativas deberemos de iniciar de nuevo el proceso.

6. TECNOLOGÍA AL SERVICO DEL CONOCIMIENTO

La minería de datos es la convergencia de distintos campos como son la estadística, el aprendizaje automático, recuperación de la información, bases de datos, sistema de apoyo en la toma de decisiones..., pero dada las propias características de la minería supone un nuevo reto científico e intelectual ya que por ejemplo en diferencia con el análisis estadístico la minería de datos busca la base de datos sin una idea previa y deduce la afirmación mientras que con la estadística conocemos la relación y el análisis la cuantifica.

Hoy día, el usuario dispone de una amplía gama de técnicas para poder desarrollar sus proyectos de minería de datos, como por ejemplo:

*Técnicas de Visualización: adecuadas para ubicar patrones en un conjunto de datos, puede ser utilizado al comienzo del proceso de data mining para tener una referencia de la calidad del conjunto de los datos.

*Árboles de decisión: son estructuras en forma de árbol representan conjuntos de decisiones. Estas decisiones generan reglas para la clasificación de un conjunto de datos. Para poder predecir el comportamiento de un cliente es necesario poder contar con una clasificación previa, esto implica una predicción de que un cliente pertenece a cierto grupo de clientes. La complejidad es de n (Log n).

*Redes Neuronales: son modelos predecibles, no lineales que aprenden a través de entrenamiento y semejan la estructura de una red neuronal biológica. Estas técnicas han tenido un desarrollo impresionante en la última década, y tienen como objetivo fundamental sustituir la función la persona experta.

*Redes Bayesianas: buscan predeterminar relaciones causales que expliquen un fenómeno en base a los datos contenidos en una base de datos. Se han usado principalmente para realizar predicción.

*Reglas de inducción: La extracción de reglas if-then de datos basados en significado estadístico.

La técnica usada para realizar estas operaciones en data mining se denomina modelado y es, simplemente, el acto de construir un modelo en una situación donde usted conoce la respuesta y luego la aplica en otra situación de la cual desconoce la respuesta.

Los beneficios asociados a la minería de datos pueden resumirse de la siguiente forma:

- Incremento de los resultados como consecuencia del aumento de la cuota de mercado.

- Fidelización de la clientela dada una mejor respuesta a sus requerimientos.

- Mejora del rendimiento.

- Reducción del factor riesgo.

- Optimización de las estrategias y toma de decisiones.

- Optimización de la gestión, maximizando rentabilidades.

7. PROYECTOS DE DATAMINING

A continuación se va ha describir un proyecto, perteneciente al ámbito textil, en donde se ha va a ir explicando con que finalidad se han utilizado las técnicas de minería de datos y como se ha ido produciendo el ciclo de conversión del conocimiento.

7.1. El Proyecto

Este proyecto lo denominamos "Estimación de la resistencia mecánica de un material", en el que se pretende es desarrollar un modelo que permita estimar la resistencia mecánica de un material.

7.2. Contextualización

En el sector del textil la calidad de los materiales fabricados industrialmente se verifica mediante pruebas basadas en estándares normalizados. En la mayoría de los casos, los test realizados en el laboratorio, son fuera del proceso productivo. Para facilitar el control del proceso, los parámetros de calidad fundamentales deberían obtenerse durante la fabricación, sin embargo a menudo esto es imposible (por ejemplo, en el caso de pruebas destructivas). Como alternativa pueden medirse otras variables y calcular a partir de ellas, mediante un modelo adecuado, el parámetro de calidad buscado. No obstante, en muchas ocasiones no se dispone de dicho modelo porque se conocen sólo las principales variables de entrada, pero no las relaciones existentes entre ellas. Para este tipo de problemas, la minería de datos ayuda a encontrar un modelo que represente una buena aproximación de las relaciones.

7.3. Minería de datos y ciclo de conversión del conocimiento.

En el caso de materiales producidos en rollos, como papel, textiles, láminas de metal o no-tejidos, uno de los parámetros de calidad fundamentales es su resistencia mecánica. Es importante porque determina la fuerza que puede aplicarse al material en las siguientes etapas productivas y, por tanto, su rango de aplicaciones. En general, la resistencia se mide off-line utilizando equipos que determinan la fuerza a la que el material se rompe.

Determinar la resistencia según se está fabricando el material supondría una mejora sustancial del proceso, pero el procedimiento de medida estándar es destructivo, y no existe un método simple de medida durante el proceso productivo. Aplicando técnicas de minería de datos se ha desarrollado un modelo que permite estimar la resistencia mecánica a partir de otras medidas que pueden realizarse durante la fabricación (paso de explícito a tácito).

La resistencia mecánica representa una propiedad dependiente de la elasticidad del material, característica que sí puede medirse durante el proceso productivo. Sin embargo, aunque ambos parámetros están estrechamente relacionados no existe correlación lineal entre ellos y la resistencia mecánica depende además de otras variables, destacando entre ellas el grosor del material y su densidad, que también pueden medirse on-line. No obstante, existen otros parámetros que también influyen en la resistencia del material y que no pueden medirse o para los que no se conoce un modelo.

Puesto que no se dispone de un modelo físico, se han aplicado técnicas de minería de datos para desarrollar un sistema que modele la relación de la resistencia con la elasticidad, la densidad y el grosor del material, en este caso no-tejidos. Analizando los datos registrados sobre los valores de estas variables y la resistencia medida en el laboratorio (paso de explicito a explicito) se ha configurado una red neuronal que proporciona una estimación de la resistencia (conocimiento tácito a explicito). Esta estimación se obtiene a partir de los parámetros medidos durante el proceso de fabricación, sin necesidad de realizar pruebas específicas fuera de la cadena. En relación a la estimación obtenida, el equipo experto (paso de tácito a tácito) determinará si está estimación obtenida es significativa y acorde a los resultados obtenidos por otros equipos o técnicas.

8. CONCLUSION

En todo proceso de data mining el descubrimiento automático de hechos e hipótesis ocultas o no explícitas es un acontecimiento que busca una diferencia competitiva, junto con un aumento de la eficacia y productividad de la organización. Pero el hecho de identificar que tipo de conocimiento (tácito o explicito) se ha descubierto, como se ha generado, y de que manera lo verificamos, interpretamos, interiorizamos y transmitimos, lo que determina la magnitud del data mining en la gestión del conocimiento y en el ciclo de conversión del conocimiento..



Sobre el autor


Cursando el Doctorado en Dirección de Proyectos

(UPV / UNIOVI / UNIRIOJA / UNAV).



© Copyright 2004 Daniel López Rodríguez.
© Copyright 2004 REDcientífica.
Todos los derechos reservados.


[Evaluar este artículo]








              Misión de REDcientífica              Condiciones de publicación              E-mail de contacto



  Bookmark and Share