miércoles, 23 de marzo de 2011

VI.II. Blogs, Teleconferencias y herramientas web



BLOG

Un blog, o en español también una bitácora, es un sitio web periódicamente actualizado que recopila cronológicamente textos o artículos de uno o varios autores, apareciendo primero el más reciente, donde el autor conserva siempre la libertad de dejar publicado lo que crea pertinente. El nombre bitácora está basado en los cuadernos de bitácora, cuadernos de viaje que se utilizaban en los barcos para relatar el desarrollo del viaje y que se guardaban en la bitácora. Aunque el nombre se ha popularizado en los últimos años a raíz de su utilización en diferentes ámbitos, el cuaderno de trabajo o bitácora ha sido utilizado desde siempre.

Este término inglés blog o weblog proviene de las palabras web y log ('log' en inglés = diario). El término bitácora, en referencia a los antiguos cuadernos de bitácora de los barcos, se utiliza preferentemente cuando el autor escribe sobre su vida propia como si fuese un diario, pero publicado en la web (en línea).




HERRAMIENTAS DE TELECONFERENCIAS EN LA GESTION DEL CONOCIMIENTO


Las teleconferencias permiten reunir personas en diferentes localidades para participar, simultáneamente, de un mismo programa. Una teleconferencia es un programa de televisión que posee la misma calidad profesional y estándar técnico presentes en los programas de las estaciones comerciales de la televisión. Generalmente, las teleconferencias son transmitidas de un punto para múltiples puntos, aunque algunos casos pueden requerir transmisión a partir de dos o más puntos. La interacción entre las audiencias y la localidad de la transmisión se hace a través de teléfono, fax o Internet, puesto que las localidades receptoras no disponen de equipos de audio y video para transmitir hacia el origen de la teleconferencia. Los puntos de recepción pueden ser permanentes o temporales.

Los usos principales de las teleconferencias son comunicación corporativa, lanzamiento de productos, entrenamiento de personal a distancia, transmisión de convenciones y seminarios, ruedas de prensa, reuniones de negocio etc. Además de la eficacia en la transmisión de contenidos, las teleconferencias traen economía de recursos, evitando viajes innecesarios y optimizando el tiempo.
Con el uso de las telecomunicaciones, actualmente se puede llevar a cabo conversaciones interactivas, desde las exposiciones informativas, hasta los cursos prácticos de participación colectiva llamados talleres. Este método de enseñanza a través de las telecomunicaciones requiere de dos aspectos importantes:
• El aspecto tecnológico: medios de transmisión de información adecuados para cubrir distancias.
• El aspecto del aprendizaje: medios atinados de coordinación e interacción.

VI.I. Herramientas de colaboración Wikis


Herramientas de colaboración Wikis


Estas herramientas sirven para digitalizar y hacer accesible el conocimiento recogido, permiten un tratamiento versátil del conocimiento, que enlazan con los documentos asociados. Permiten la difusión y rápido acceso al conocimiento. El valor del conocimiento aumenta únicamente si es accesible a la organización, sin esta condición, el conocimiento no podría convertirse en una ventaja competitiva.

Se trata de tener una idea clara de todo el patrimonio intelectual que se almacena en la organización y de ubicarlo de forma que el acceso sea rápido, lo importante es saber dónde se encuentra, para qué sirve y cómo utilizarlo.

Entre sus fuentes se encuentran: manuales de cursos, conferencias, software, patentes, prácticas y normas, rutinas organizacionales, procesos, know-how técnico, diseño de productos y servicios, estrategias de marketing, comprensión del cliente, experiencia aplicada, relaciones con los consumidores y contactos empresariales, así como la creatividad personal y la innovación.


WIKIS

Un wiki, o una wiki, es un sitio web cuyas páginas web pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes, esta palabra se convierte en un «enlace web» a la página wiki.

En una página sobre «alpinismo» puede haber una palabra como «piolet» o «brújula» que esté marcada como palabra perteneciente a un título de página wiki. La mayor parte de las implementaciones de wikis indican en el URL de la página el propio título de la página wiki (en Wikipedia ocurre así: http://es.wikipedia.org/wiki/Alpinismo), facilitando el uso y comprensibilidad del link fuera del propio sitio web. Además, esto permite formar en muchas ocasiones una coherencia terminológica, generando una ordenación natural del contenido.

La aplicación de mayor peso y a la que le debe su mayor fama hasta el momento ha sido la creación de enciclopedias colaborativas, género al que pertenece la Wikipedia. Existen muchas otras aplicaciones más cercanas a la coordinación de informaciones y acciones, o la puesta en común de conocimientos o textos dentro de grupos.

La mayor parte de los wikis actuales conservan un historial de cambios que permite recuperar fácilmente cualquier estado anterior y ver 'quién' hizo cada cambio, lo cual facilita enormemente el mantenimiento conjunto y el control de usuarios destructivos. Habitualmente, sin necesidad de una revisión previa, se actualiza el contenido que muestra la página wiki editada.

UNIDAD VI. HERRAMIENTA PARA LA ADMINISTRACION DEL CONOCIMIENTO



VI.III. Herramientas de comunicación.

VI.IV. Herramientas para crear y mantener ontologias.

V.III Introduccion de KM

Introduccion de KM en empresas de Mexico
La administración del conocimiento es una infraestructura que comparte información y que puede ser útil para otros individuos en la toma de decisiones. Esta nueva forma de transmitir los conocimientos apareció a finales de los 90’s, sin embargo ha tomado auge en los últimos años.

La concentración y almacenamiento de está información, no consiste solamente en almacenar datos, si no que representa la transmisión de conocimientos, procedimientos o investigaciones a través de una base de datos compartida, apoyada por la tecnología de información para su almacenamiento y acceso, la cual representan una posibilidad de aprovechar el trabajo que ya ha sido desarrollado, ahorrando invertir costos adicionales en un trabajo que ya ha sido realizado.

En la época de globalización, la tecnología de información juega un papel fundamental en todas las organizaciones. Han aparecido varias herramientas para que las organizaciones tengan acceso a la información, sin embargo está nueva forma de compartir la información, representa una oportunidad para poder desarrollar un centro de conocimientos.

El desarrollo de está estrategia se ha desarrollado apoyándose en la tecnología de información. Simplemente podríamos decir que cualquier persona en la organización que tenga un conocimiento que aportar a la base de conocimientos, lo puede hacer y ese conocimiento después podrá ser utilizado por cualquier otro usuario.

Entre más compleja y más grande sea la organización, mayor va a ser el potencial que se tenga para tener una base de conocimientos muy completa y poderosa y mayor va a ser la ventaja competitiva que va a otorgar.

La administración del conocimiento se ha comenzado a utilizar en las firmas de consultoría y representa una de las mejores oportunidades de incrementar el número de servicios, ganancias y oportunidades de hacer negocios en el mercado del conocimiento.

Si imaginamos todas las posibles áreas en donde esta herramienta puede ser desarrollada, podremos darnos cuenta que los fines pueden ser no solo lucrativos, sino altruistas. Las áreas en las que esta nueva forma de transmitir el conocimiento son muchas, sin embargo en las que han tomado gran interés son la educación, investigación y desarrollo científico, así como en las de negocios.

Ya comienza a haber algunas señales del interés que se tiene para aprovechar este tipo de tecnología en algunos gobiernos que empiezan a visualizar las ventajas y el potencial que está herramienta representa, por lo que dentro del artículo encontraremos algunos puntos básicos que se deben de tomar en cuenta al momento de implantar una sistema de administración del conocimiento.

martes, 22 de marzo de 2011

V.II Modelo de Nonaka y Takeuchi

La Gestión del Conocimiento Nonaka y Takeuchi la definen como, “La creencia en una verdad justificada”, esto quiere decir que si se cree en una propuesta de conocimiento ésta solo puede ser justificada por hechos.

Nonaka y Takeuchi, distinguen el conocimiento entre tácito y explícito. El conocimiento es explícito si puede ser transferido de un individuo a otro usando algún tipo de sistema de comunicación formal, siendo éste generable y codificable. Por otro lado el conocimiento tácito es visto como conocimiento poco codificado y está profundamente arraigado en nuestra experiencia y nuestros modelos mentales.

De acuerdo con está teoría existen cuatro formas de conversión de conocimiento que surgen cuando el conocimiento tácito y el explícito interactúan (Nonaka y Takeuchi).

Este proceso dinámico de creación de conocimiento hace posible que el conocimiento se desarrolle a través de un ciclo continuo y acumulativo de generación, codificación y transferencia (la llamada espiral de creación del conocimiento).


Modelo de Conocimiento según Nonaka y Takeuchi


De está forma a través de la espiral del conocimiento surge la necesidad de un vínculo entre las Tecnologías de Información, como herramientas de laGestión del Conocimiento. La relación consiste en utilizar Tecnologías de Información específicas que permitirán generar, retener, almacenar, transferir y utilizar el conocimiento como procedimientos fundamentales para la concepción de la administración del mismo.

El modelo de Nonaka consta de seis pasos:
  • Construir equipos autorregulados.
  • Incrementar el conocimiento individual por medio del conocimiento tácito compartido.
  • Convertir el conocimiento tácito en explícito.
  • Transformar el conocimiento en un producto o sistema.
  • Crear nuevos conceptos.
  • Integrar los nuevos conceptos en la base del conocimiento.
En estos modelos se afirma implícitamente que la gestión del conocimiento deberá asociarse a algunos métodos más importantes de la gestión empresarial como son la gestión de los recursos humanos y el liderazgo, debido a la importancia de los recursos humanos en la generación y aplicación de los conocimientos, así como del liderazgo, sin el cual la organización es incapaz de comprender la importancia de aprender de los empleados.

domingo, 20 de marzo de 2011

V.I.Modelos Sociologicos

MODELO DE GESTIÓN DEL CONOCIMIENTO DE KPMG CONSULTING
(TEJEDOR Y AGUIRRE, 1998)

El modelo parte de la siguiente pregunta: ¿qué factores condicionan el aprendizaje de una organización y qué resultados produce dicho aprendizaje?.

Para responder a esta pregunta KPMG realiza un esfuerzo que produce un modelo cuya finalidad es la exposición clara y práctica de los factores que condicionan la capacidad de aprendizaje de una organización, así como los resultados esperados del aprendizaje.

Una de las características esenciales del modelo es la interacción de todos sus elementos, que se presentan como un sistema complejo en el que las influencias se producen en todos los sentidos.
La estructura organizativa, la cultura, el liderazgo, los mecanismos de aprendizaje, las actitudes de las personas, la capacidad de trabajo en equipo, etc., no son independientes, sino que están conectados entre sí.





Los factores condicionantes del aprendizaje.
Los factores que configuran la capacidad de aprender de una empresa han sido estructurados en los tres bloques siguientes, atendiendo a su naturaleza:

1.- Compromiso firme y consciente de toda la empresa, en especial de sus líderes, con el aprendizaje generativo, continuo, consciente y a todos los niveles.
El primer requisito para el éxito de una iniciativa de gestión del conocimiento es reconocer explícitamente que el aprendizaje es un proceso que debe ser gestionado y comprometerse con todo tipo de recursos.

2.- Comportamientos y mecanismos de aprendizaje a todos los niveles. La organización como ente no humano sólo puede aprender en la medida en que las personas y equipos que la conforman sean capaces de aprender y deseen hacerlo.

Disponer de personas y equipos preparados es condición necesaria pero no suficiente para tener una organización capaz de generar y utilizar el conocimiento mejor que las demás. Para lograr que la organización aprenda es necesario desarrollar mecanismos de creación, captación, almacenamiento, transmisión e interpretación del conocimiento, permitiendo el aprovechamiento y utilización del aprendizaje que se da en el nivel de las personas y equipos.

Los comportamientos, actitudes, habilidades, herramientas, mecanismos y sistemas de aprendizaje que el modelo considera son:
  • La responsabilidad personal sobre el futuro (proactividad de las personas).
  • La habilidad de cuestionar los supuestos (modelos mentales).
  • La visión sistémica (ser capaz de analizar las interrelaciones existentes dentro del sistema, entender los problemas de forma no lineal y ver las relaciones causa-efecto a lo largo del tiempo).
  • La capacidad de trabajo en equipo.
  • Los procesos de elaboración de visiones compartidas.
  • La capacidad de aprender de la experiencia.
  • El desarrollo de la creatividad.
  • La generación de una memoria organizacional.
  • Desarrollo de mecanismos de aprendizaje de los errores.
  • Mecanismos de captación de conocimiento exterior.
  • Desarrollo de mecanismos de transmisión y difusión del conocimiento.
Si se consigue que las personas aprendan, pero no convierten ese conocimiento en activo útil para la organización, no se puede hablar de aprendizaje organizacional. La empresa inteligente practica la comunicación a través de diversos mecanismos, tales como reuniones, informes, programas de formación internos, visitas, programas de rotación de puestos, creación de equipos multidisciplinares,...

3.- Desarrollo de las infraestructuras que condicionan el funcionamiento de la empresa y el comportamiento de las personas y grupos que la integran, para favorecer el aprendizaje y el cambio permanente.

Pero no debemos olvidar que las condiciones organizativas pueden actuar como obstáculos al aprendizaje organizacional, bloqueando las posibilidades de desarrollo personal, de comunicación, de relación con el entorno, de creación, etc.
Las características de las organizaciones tradicionales que dificultan el aprendizaje:
  • Estructuras burocráticas.
  • Liderazgo autoritario y/o paternalista.
  • Aislamiento del entorno.
  • Autocomplacencia.
  • Cultura de ocultación de errores.
  • Búsqueda de homogeneidad.
  • Orientación a corto plazo.
  • Planificación rígida y continuista.
  • Individualismo.
En definitiva, la forma de ser de la organización no es neutra y requiere cumplir una serie de condiciones para que las actitudes, comportamiento y procesos de aprendizaje descritos puedan desarrollarse.

El modelo considera los elementos de gestión que afectan directamente a la forma de ser de una organización: cultura, estilo de liderazgo, estrategia, estructura, gestión de las personas y sistemas de información y comunicación.

Los resultados del aprendizaje.
Una vez analizados los factores que condicionan el aprendizaje, el modelo refleja los resultados que debería producir ese aprendizaje. La capacidad de la empresa para aprender se debe traducir en:
  • La posibilidad de evolucionar permanentemente (flexibilidad).
  • Una mejora en la calidad de sus resultados.
  • La empresa se hace más consciente de su integración en sistemas más amplios y produce una implicación mayor con su entorno y desarrollo.
  • El desarrollo de las personas que participan en el futuro de la empresa.



REFERENCIA BIBLIOGRAFICA
MODELO DE GESTIÓN DEL CONOCIMIENTO DE KPMG CONSULTING
(TEJEDOR Y AGUIRRE, 1998) "[en linea]
oicp Escrito por oicp el 19/09/2007 04:06,
<
http://gestiondelconocimiento.com/modelos_kpmg.htm>
[consulta:10 noviembre 2010]

UNIDAD V


V.I Modelos Sociologicos

V.II modelo de boicot y nonaca


V.III Introduccion de KM

IV.III. Base de datos avanzadas

Base de datos avanzadas

La relación de los clientes con los servidores de bases de datos podría ser como en la primera figura pero lamentablemente no se ha logrado que los diferentes fabricantes lleguen a estándares respetados por todos que lo permita. Solamente las especificaciones de SQL (de vital importancia en las relaciones Cliente/Servidor) han sobrevivido medianamente. Hay que recordar que solo SQL 3 ha enfrentado tópicos de gran envergadura como módulos persistentes, relaciones avanzadas cliente/servidor y datos abstractos; y que aun los proveedores no hacen sus productos compatibles con este estándar.



Cuando un desarrollador enfrenta un proyecto enmarcado en Cliente/Servidor de Bases de Datos debe enfrentar una serie de inconvenientes que debe resolver, en particular la conexión y manipulación de la información en la base de datos a través del SGBD o DBMS.
El esquema siguiente muestra esta situación:
Como se aprecia el programador debe recurrir a APIs (Interfaz para el Programador de Aplicaciones), que son funciones que proveen los fabricantes de hardware y/o software para que los programadores no deban llegar a bajo nivel para relacionarse con sus productos y lo hagan conociendo tales funciones. Como se dijo anteriormente, dado que no hay un estándar, cada compañía ha dispuestos su APIs específicas.

Estas funciones actúan sobre los controladores o drivers (similares a los drivers para impresoras, cámaras, etc), quienes se comunican con el sistema operativo y poner a disposición sus productos. Tampoco los drivers son estándar y existe por lo menos uno para cada producto. Para que la aplicación se pueda comunicar con la Base de Datos debe tenerse habilitado este driver.
Por último, en caso de estar en red, se debe tener protocolos comunes de comunicación entre clientes y servidores o traductores de los mismos. En esto los estándares están muy avanzados y son respetados, por lo cual pocas veces hay problema con ello.

Se debe tener presente un caso más general, en el cual una aplicación tenga que comunicarse con diferentes DBMS, esto complica aun mas la situación.
Controladores o Drivers. Paul Reed, dice que el controlador es clave para desentrañar los misterios del DBMS. Los controladores reciben la llamada de las CLI y la traducen al lenguaje de acceso nativo del servidor de bases de datos. Se requiere un controlador por cada base de datos con la que se realiza conexión.

APIs de SQL. Dos métodos prevalecen para el soporte de SQL con lenguajes de programación:
SQL embebido ESQL
Interfaz del Nivel de Llamada (CLI).

SQL incrustado o embebido ha sido atendido por la especificación SQL-92, para la inclusión de instrucciones SQL (realmente no es una API) como si fuesen instrucciones propias del lenguaje de programación ordinario. Deben enmarcarse entre etiquetas que permiten ser distinguidas de las demás instrucciones. Estos bloques serán previamente precompilados. Tiene como inconvenientes que la base d datos destino debe conocerse al momento del desarrollo y que las instrucciones son diferentes para cada producto.

Las interfaces del nivel de llamada (CLI) son APIs de SQL para acceso a bases de datos, por lo cual no se requiere precompilación ni conocer de antemano la base de datos. Esto facilitaría la independencia del producto en particular, pero acá tampoco los estándares han triunfado.

CLI de SAG. SAG es un consorcio constituido en 1988 por 44 proveedores con el fin de ofrecer u estándar unificado para el acceso a bases de datos remotas. El CLI de SAG es un conjunto de API para base d datos SQL, aportando semántica y sintaxis de SQL común. Permiten conexiones a través de un controlador local, preparar solicitudes, ejecutar solicitudes, recuperar resultados, concluir instrucciones y concluir conexiones.

Varios productos en el mercado se adecuan a esta especificación.
CLI de Microsoft. Es una versión ampliada de la CLI de SAG, conocida como Conectividad de Bases de Datos Abierta (ODBC: Open DataBase Connectivity), inicialmente para acceso de bases de datos con Windows.
OBDC es una interface programada que hace posible el acceso a información en sistemas manejadores de bases de datos que usan SQL (Structured Query Language) como un estándar de acceso a datos. ODBC posee drivers que se instalan por defecto y permite también que el usuario los instale según la base de datos con la que desee obtener conexión.
seguridad y la localización física.


Para conseguir la conexión, ODBC hace posible la configuración de un origen de datos DSN (Data Source Name), que contiene los detalles necesarios para la comunicación con la base de datos como el driver a emplear,



La creación de un DSN puede estar definida por aspectos que determinen que tipo de origen de datos se desea:

REFERENCIA BIBLIOGRAFICA

DSN de usuario: Almacena la información de cómo conectar al gestor de datos indicado. Este es solamente visible por el usuario y puede ser usado únicamente en la máquina actual.
DSN de sistema: Almacena información necesaria para la conexión con el gestor correspondiente. Es visible por todos los usuarios de la máquina, incluyendo los servicios NT.

DSN de archivo: Permite la conexión con el distribuidor de datos disponible y además puede ser compartido por usuarios que tengan el mismo controlador instalado.
API de Borland/Inprise. Borland Database Engine (BDE) es el motor común para acceso de datos en sus productos. IDAPI (Integrated Database API) es la API para este motor, que unifica los accesos y las consultas orientadas de datos en un modelo de cursor.

IDAPI ofrece una interfaz de red que permite que los controladores residan en una maquita "gateway", lo que facilita los accesos a servidores múltiples (por lo que requerían un controlador distinto para cada uno). Todas las combinaciones de controladores residen una máquina en lugar de en cada cliente. A pesar de ser más veloz que ODBC no logro extenderse tanto como este.
API JAVA. Estándar llamado JDBC (Java DataBase Conectivity).
JDBC es realmente un conjunto de clases que representan conexiones con bases de datos, sentencias SQL, conjuntos de datos y metadatos entre otras cosas. El API definido por JDBC permite a los programadores enviar sentencias en SQL al motor de bases de datos, y procesar los resultados.
Como en los otros casos se requiere de un driver o controlador, en este caso JDBC.

Los drivers JDBC se han clasificado en tipos.

jueves, 17 de marzo de 2011

IV.II Antologias en la industria diciplina cientificaS Y comerciales


ANTOLOGIAS

Se denomina antología a cualquier libro que contiene una selección de textos literarios de uno o varios autores, en su mayoría los mejores de estos o por lo menos los más recordados y los que los hicieron célebres, sin embargo, en el último tiempo las antologías han trascendido un poco más estos límites escritos y literarios y por ejemplo, el ámbito de la música comenzó a utilizar este tradicionaL formato de recopilación y entonces hoy en día es muy común que existan también antologías musicales de importantísimos músicos de ayer y hoy que reúnen sus mejores canciones y creaciones en un único disco.



Utilice el término tradicional porque sin dudas la antología es un tipo de obra que se viene usando como síntesis de otras desde hace mucho tiempo, además, ostentan un valor añadido especial porque al tratarse de un compendio de lo mejor que ha hecho a lo largo de su historia y carrera un artista, contiene lo más importante y representativo de el, por lo tanto resultan ser un camino esencial de atravesar y explorar cuando se quiere empezar a conocer y profundizar en la obra completa de un artista.

Generalmente, la mayoría de las antologías nacieron para compendiar aquellas obras poéticas, sin embargo, hay otros géneros que también han echado mano de la antología como ser las fábulas, cuentos y ensayos.



Y asimismo, como la música y otros géneros le quitaron esa exclusividad que la poesía ostentaba por sobre la antología, en los últimos tiempos también son asequibles las antologías sobre muy particulares temáticas.

IV.I taxonomia y estructura referenciales


TAXONOMIA EN LA GESTION DEL CONOCIMIENTO


Es un tema curioso. Hace unos años (digamos diez) hablar de “gestión del conocimiento” era hablar principalmente de “taxonomías” y “ontologías”, las grandes familias de clasificación de los objetos de conocimiento. Hoy en día están completamente fuera de la foto, salvo en lugares como Repsol YPF donde están teniendo un inopinado revival… y en alguna conferencia particularmente despistada.

Y sin embargo, como casi siempre, la crítica no está justificada. Las taxonomías tienen un origen muy honorable, y un papel muy respetable: vienen directamente de la biblioteconomía, la disciplina practicada por los documentalistas que iniciaron la gestión del conocimiento en las organizaciones. En su entorno, son esenciales.

Pero el entorno actual es un poco diferente, y las taxonomías deben adaptarse o sencillamente empiezan a estorbar. Me explico:
  • No toda la gestión del conocimiento escaptura de conocimiento, por mucho que tradicionalmente se haya visto así. Hoy en día se aprecia que es al menos tan importante facilitar el flujo e intercambio de conocimiento (creación de entornos y procesos de conversación). Sin esta parte, el conocimiento capturado sólo circula mediante búsquedas específicas… y (valga la redundancia) sólo circula el que somos capaces de capturar. Es decir, es mucho menos efectivo. Y en ese entorno, las taxonomías (más allá de grandes áreas básicas) sobran.

  • El conocimiento emergente es difícil de clasificar… y cualquier clasificación es relativamente relevante. Cualquier organización está sujeta a cambios que hacen que p.ej. clasificar por áreas tecnológicas, departamentos, productos, mercados… sean decisiones condenadas a quedar obsoletas. Existen clasificaciones básicas que, sujetas a revisión constante, son evidentemente muy útiles… pero los últimos años nos han traído algo más, en forma de los llamados tags. Estas “etiquetas” son taxonomías emergentes definidas por los propios usuarios y generadores de los elementos documentados (manuales, páginas, links externos), y son exactamente el caos que las taxonomías pretenden evitar. El descubrimiento es que no son malos: al revés, fomentados sobre una capa mínima de taxonomía centralizada (y bien mantenida) añaden muchísimo valor a los documentos.

  • Las búsquedas ya no son por metadatos. O dicho de otro modo: las referencias que un usuario puede encontrar navegando por un árbol de taxonomías son demasiadas para resultar útiles. Acordáos de los buscadores clasificados (como el viejo Yahoo). Tienen un límite. Las búsquedas actuales se hacen (o tienden a hacerse) mediantepalabras clave (aka taxonomías, tags y otros metadatos definidos para el propio documento)… y sobre todo, mediante búsquedas en el texto. Hace años esto era imposible, ahora Google vende una cajita que (con un cierto trabajo de implantación) te hace en la red local lo mismo que ellos hacen a la web.
Las taxonomías (antiguas) tienen su lugar como reflejo de la organización de la empresa, como “capa básica” de clasificación, como tags de referencia aportados por la autoridad, aplicadas a conocimientos formalizados en documentos estructurados y “oficiales”… un lugar que es muy importante, pero limitado.

En resumen: no hay que jubilarlas, pero sí ponerlas en su lugar

A Taxonomy and Codification for Knowledge Systems in Organizations.

Resumen/Abstract

Este documento propone una taxonomía jerárquica y sistema de codificaciónpara los sistemas de conocimiento en las organizaciones. El enfoque utilizado se basa en tres criterios: estructura (cómo se designa el conocimiento y qué contiene), propósito (para qué fin se destina), y función(qué impacto tiene). Cada criterio es empleado para clasificar al conocimiento desde perspectivas diferentes, y la taxonomía se codifica por medio de un sistema numérico que se emplea para identificar a cada unidad de conocimiento.


This paper proposes a hierarchical taxonomy and codification for knowledge systems in organizations. The use approach is based on three criteria: structure (how knowledge is designed and what it contains), purpose (what is the knowledge for), and function (what the knowledge does). Each criterion is used for classification into distinct types of knowledge and the taxonomy is then codified by means of a numerical system which serves to identify each knowledge unit.

Palabras clave/Key words
Taxonomía, conocimiento, Gestión del Conocimiento, codificación jerárquica, unidad de conocimiento.

Taxonomy, Knowledge Management, hierarchical codification, knowledge unit.

INTRODUCCIÓN

La literatura contemporánea sobre la Gestión del Conocimiento refleja el creciente interés por este tema entre académicos y practicantes de varios sectores económicos del paisaje organizacional. Gran parte del trabajo en este campo está sustentado en la afirmación que la nueva economía esta basada en el conocimiento y que su gestión está cambiando las formas en que las organizaciones funcionan y prosperan.

En gran medida, los esfuerzos de desarrollo de sistemas de Gestión del Conocimiento han estado dirigidos a proporcionar herramientas de apoyo a la toma de decisiones y al trabajo del conocimiento. Como parte de estos sistemas, los esquemas de clasificación tienen un peso fundamental para definir tipos diferentes de conocimiento, de manera que permitan una mejorcomprensión por los actores que los utilizan.1-5


El objetivo fundamental del trabajo consiste en proponer una taxonomía jerárquica para la clasificación y codificación del conocimiento en organizaciones sobre la base de tres criterios: estructura, propósito y función.

miércoles, 16 de marzo de 2011

UNIDAD IV CONOCIMIENTOS EN LA ORGANIZACION


IV.I Taxonomía y estructuras referenciales

IV.II Antologías en la industria disciplina científicas Y comerciales


IV.III Base de datos avanzadas

III.II. Métodos Estadísticos como el aprendizaje y que es la minería de datos

En una arquitectura de GC encontramos distintas herramientas y servicios que configuran como resultado final una solución GC completa.
Como herramientas que dan apoyo a la GC dentro de las empresas podemos diferenciar 3 grupos o conjuntos.

Grupo 1 - Herramientas de trasmisión inmediata: Son herramientas que permiten transmitir el conocimiento explicito de forma fácil al conjunto de miembros de una misma empresa. Las Wikis son buen ejemplo de este tipo de herramientas o la wikipedia. Estas pertenecerían a una arquitectura principal que podría estar en el grupo 2.
Grupo 2 - Herramientas y servicios de gestión del conocimiento interno: Son aquellos componentes dentro de una arquitectura que gestionan, analizan, buscan y distribuyen información. Por ejemplo las herramientas y soluciones dentro de arquitecturas como Autonomy AgentWare Knowledge Server o IBM AgentBuilder Toolkit.

Grupo 3 - Herramientas y servicios de gestión del conocimiento externo: Al igual que en el grupo 2 son componentes que gestionan, analizan, buscan y distribuyen, pero en este caso también hay que añadir que localizan y extraen, dado que su misión principal es la localización y extracción de información relacionada con la empresa pero que esta en el exterior de esta (principalmente en Internet o en otros soportes mas tradicionales de contenidos) y que por lo tanto en algunas ocasiones la empresa puede ser ajena a esta y no tener conocimiento de su existencia. Algunos ejemplos los tenemos en herramientas como Informyzer que pertenece a la arquitectura de anpro21 o las soluciones de MyNews.




MINERIA DE DATOS


La minería de datos (DM, Data Mining) consiste en la extracción no trivial de información que reside de manera implícita en los datos. Dicha información era previamente desconocida y podrá resultar útil para algún proceso. En otras palabras, la minería de datos prepara, sondea y explora los datos para sacar la información oculta en ellos.


Bajo el nombre de minería de datos se engloba todo un conjunto de técnicas encaminadas a la extracción de conocimiento procesable, implícito en las bases de datos. Está fuertemente ligado con la supervisión de procesos industriales ya que resulta muy útil para aprovechar los datos almacenados en las bases de datos.


Las bases de la minería de datos se encuentran en la inteligencia artificial y en el análisis estadístico. Mediante los modelos extraídos utilizando técnicas de minería de datos se aborda la solución a problemas de predicción, clasificación y segmentación.

Técnicas de minería de datos


Como ya se ha comentado, las técnicas de la minería de datos provienen de la Inteligencia artificial y de la estadística, dichas técnicas, no son más que algoritmos, más o menos sofisticados que se aplican sobre un conjunto de datos para obtener unos resultados.

Las técnicas más representativas son:

Redes neuronales.- Son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas en una red que colabora para producir un estímulo de salida. Algunos ejemplos de red neuronal son:

El Perceptrón.

El Perceptrón multicapa.

Los Mapas Autoorganizados, también conocidos como redes de Kohonen.

Regresión lineal.- Es la más utilizada para formar relaciones entre datos. Rápida y eficaz pero insuficiente en espacios multidimensionales donde puedan relacionarse más de 2 variables.

Árboles de decisión.- Un árbol de decisión es un modelo de predicción utilizado en el ámbito de la inteligencia artificial, dada una base de datos se construyen estos diagramas de construcciones lógicas, muy similares a los sistemas de predicción basados en reglas, que sirven para representar y categorizar una serie de condiciones que suceden de forma sucesiva, para la resolución de un problema. Ejemplos:

Algoritmo ID3.

Algoritmo C4.5.

Modelos estadísticos.- Es una expresión simbólica en forma de igualdad o ecuación que se emplea en todos los diseños experimentales y en la regresión para indicar los diferentes factores que modifican la variable de respuesta.

Agrupamiento o Clustering.- Es un procedimiento de agrupación de una serie de vectores según criterios habitualmente de distancia; se tratará de disponer los vectores de entrada de forma que estén más cercanos aquellos que tengan características comunes. Ejemplos:

Algoritmo K-means.

Algoritmo K-medoids.

Según el objetivo del análisis de los datos, los algoritmos utilizados se clasifican en supervisados y no supervisados (Weiss y Indurkhya, 1998):

Algoritmos supervisados (o predictivos): predicen un dato (o un conjunto de ellos) desconocido a priori, a partir de otros conocidos.

Algoritmos no supervisados (o del descubrimiento del conocimiento): se descubren patrones y tendencias en los datos.





Referencia
http://admondelconocimientobernal.blogspot.com/p/32-metodos-estadisticasaprendizaje-y.html

viernes, 11 de marzo de 2011

III.IIMetodos estadisticos aprendizaje mineria de datos



MINERIA DE DATOS
HISTORIA DE DATA MINING (MINERÍA DE DATOS)

La minería de datos, entendida como la búsqueda de patrones dentro de grandes bases de datos utilizando para ello métodos estadísticos y de aprendizaje basado en computadora, está empezando a extenderse en nuestro país. Empresas en el sector de telecomunicaciones, financiero y de autoservicio están en el proceso de adquirir alguna solución tecnológica en este campo, por lo que surge una demanda por recursos humanos con conocimientos en minería de datos.

Además, al enfrentar un ambiente más competitivo las empresas requieren de tecnologías que les permitan pronosticar, dentro de un marco probabilística, el comportamiento de sus clientes y prospectos a fin de desarrollar estrategias de atracción o retención.

Aunque desde un punto de vista académico el término data mining es una
etapa dentro de un proceso mayor llamado extracción de conocimiento en bases de datos, (mencionado en el capitulo anterior) en el entorno comercial, así como en este trabajo, ambos términos se usan de manera indistinta. Lo que en verdad hace el data mining es reunir las ventajas de varias áreas como la Estadística, la Inteligencia Artificial, la Computación Gráfica, las Bases de Datos y el Procesamiento Masivo, principalmente usando como materia prima
las bases de datos. Una definición tradicional es la siguiente: Un proceso no
trivial de identificación válida, novedosa, potencialmente útil y entendible de
patrones comprensibles que se encuentran ocultos en los datos (Fayyad y otros,
1996). Desde el punto de vista empresarial , lo definimos como: La integración
de un conjunto de áreas que tienen como propósito la identificación de un
conocimiento obtenido a partir de las bases de datos que aporten un sesgo
hacia la toma de decisión (Molina y otros, 2001).

La idea de data mining no es nueva. Ya desde los años sesenta los estadísticos manejaban términos como data fishing, data mining o data archaeology con la idea de encontrar correlaciones sin una hipótesis previa en bases de datos con ruido. A principios de los años ochenta, Rakesh Agrawal, Gio Wiederhold, Robert Blum y Gregory Piatetsky-Shapiro, entre otros, empezaron a consolidar los términos de data mining y KDD.[3] A finales de los años ochenta sólo existían un par de empresas dedicadas a esta tecnología; en 2002 existen más de 100 empresas en el mundo que ofrecen alrededor de 300 soluciones.
Las listas de discusión sobre este tema las forman investigadores de más de ochenta países. Esta tecnología ha sido un buen punto de encuentro entre personas pertenecientes al ámbito académico y al de los negocios.
El data mining es una tecnología compuesta por etapas que integra varias áreas y que no se debe confundir con un gran software. Durante el desarrollo de un proyecto de este tipo se usan diferentes aplicaciones software en cada
etapa que pueden ser estadísticas, de visualización de datos o de inteligencia artificial, principalmente. Actualmente existen aplicaciones o herramientas comerciales de data mining muy poderosas que contienen un sinfín de utilerías
que facilitan el desarrollo de un proyecto. Sin embargo, casi siempre acaban complementándose con otra herramienta.

La data mining es la etapa de descubrimiento en el proceso de KDD: Paso
consistente en el uso de algoritmos concretos que generan una enumeración
de patrones a partir de los datos preprocesados (Fayyad et al., 1996)Aunque
se suelen usar indistintamente los términos KDD y Minería de Datos.




Los Fundamentos del Data Mining
Las técnicas de Data Mining son el resultado de un largo proceso de investigación
y desarrollo de productos. Esta evolución comenzó cuando los datos
de negocios fueron almacenados por primera vez en computadoras, y continuó
con mejoras en el acceso a los datos, y más recientemente con tecnologías generadas
para permitir a los usuarios navegar a través de los datos en tiempo
real. Data Mining toma este proceso de evolución más allá del acceso y navegación
retrospectiva de los datos, hacia la entrega de información prospectiva
y proactiva. Data Mining está listo para su aplicación en la comunidad de negocios
porque está soportado por tres tecnologías que ya están suficientemente
maduras:
• Recolección masiva de datos.
• Potentes computadoras con multiprocesadores.
• Algoritmos de Data Mining.


PRINCIPALES CARACTERÍSTICAS Y OBJETIVOS DE LAMINERÍA DE DATOS

Las bases de datos comerciales están creciendo a un ritmo sin precedentes.
Un reciente estudio del META GROUP sobre los proyectos de Data Warehouse
encontró que el 19% de los que contestaron están por encima del nivel de los
50 Gigabytes, mientras que el 59% espera alcanzarlo en el segundo trimestre de 1997. En algunas industrias, tales como ventas al por menor (retail), estos números pueden ser aún mayores. MCI Telecommunications Corp. cuenta con una base de datos de 3 terabytes + 1 terabyte de índices y overhead corriendo en MVS sobre IBM SP2. La necesidad paralela de motores computacionales mejorados puede ahora alcanzarse de forma más costo - efectiva con tecnología de computadoras con multiprocesamiento paralelo. Los algoritmos de Data Mining utilizan técnicas que han existido por lo menos desde hace 10 años, pero que sólo han sido implementadas recientemente como herramientas maduras, confiables, entendibles que consistentemente son más performantes métodos estadísticos clásicos.
En la evolución desde los datos de negocios a información de negocios, cada nuevo paso se basa en el previo.
Por ejemplo, el acceso a datos dinámicos es crítico para las aplicaciones de navegación de datos (drill through applications), y la habilidad para almacenar grandes bases de datos es crítica para Data Mining. Los componentes esenciales de la tecnología de Data Mining han estado bajo desarrollo por décadas, en áreas de investigación como estadísticas, inteligencia artificial y aprendizaje de máquinas. Hoy, la madurez de estas técnicas, junto con los motores de bases de datos relacionales de alta performance, hicieron que estas tecnologías fueran prácticas para los entornos de data warehouse actuales.


PRINCIPALES CARACTERÍSTICAS Y OBJETIVOS DE LA MINERÍA
DE DATOS


• Explorar los datos se encuentran en las profundidades de las bases de datos, como los almacenes de datos, que algunas veces contienen información almacenada durante varios años.
• En algunos casos, los datos se consolidan en un almacén de datos y en mercados de datos; en otros, se mantienen en servidores de Internet e
Intranet.
• El entorno de la minería de datos suele tener una arquitectura cliente servidor.
• Las herramientas de la minería de datos ayudan a extraer el mineral de la información enterrado en archivos corporativos o en registros públicos, archivados
• El minero es, muchas veces un usuario final con poca o ninguna habilidad de programación, facultado por barrenadoras de datos y otras poderosas herramientas indagatorias para efectuar preguntas adhoc y obtener rápidamente respuestas.
• Hurgar y sacudir a menudo implica el descubrimiento de resultados valiosos e inesperados.
• Las herramientas de la minería de datos se combinan fácilmente y pueden analizarse y procesarse rápidamente.
• Debido a la gran cantidad de datos, algunas veces resulta necesario usar procesamiento en paralelo para la minería de datos.
• La minería de datos produce cinco tipos de información:
— Asociaciones.
— Secuencias.
— Clasificaciones.
— Agrupamientos.
— Pronósticos.
• Los mineros de datos usan varias herramientas y técnicas.
La minería de datos es un proceso que invierte la dinámica del método científico en el siguiente sentido:
En el método científico, primero se formula la hipótesis y luego se diseña el experimento para coleccionar los datos que confirmen o refuten la hipótesis.
Si esto se hace con la formalidad adecuada (cuidando cuáles son las variables controladas y cuáles experimentales), se obtiene un nuevo conocimiento.


En la minería de datos, se coleccionan los datos y se espera que de ellos emerjan hipótesis. Se busca que los datos describan o indiquen por qué son

Referencia Bibliografica
amco " historia de la mineria de datos "
oicp Escrito por oicp el 19/09/2007,
http://oicp.blogspot.es/