viernes, 6 de noviembre de 2009

"Prototipo Modelo de Gestión del Conocimiento en el Área de estudio (Art. 06)"

A continuación presentamos un modelo prototipo de gestión del conocimiento humano el cual debe ser aprovechado por el área de Abastecimientos, para ello plateamos un Sistema que registre y almacene el traabajo, aportes, observaciones, sugerencias, avances diarios, mensuales, entre otros aspectos que consideramos útiles para generar un reporte de trabajo en el área, a su vez toda esa bitácora de información podrá gestionar y evaluar el trabajo para futuras oportunidades optimizando el trabajo y funciones definidas en la Institución. A continuación los módulos de ingreso de datos, procesamiento inclusive un modelo de reporte de dicha información la cual se muestra en su etapa inicial como modelo propuesto, pues planteamos un modelo/sistema adhoc al Área de trabajo la cual puede ser mejorada y modificada según los requerimientos de la Institución:
:: EQUIPO DE TRABAJO ::
Miguel Ocampo
Francisco Zapata
Elvis Mamani.






























jueves, 29 de octubre de 2009

"Análisis del Capital Actual y Propuesto en la Institución (Art. 04)”

  • Como ya no puede asegurar empleo de por vida, el deber de las empresas es ofrecer un entrenamiento superior que permita lograr la empleabilidad orientada hacia el autoemprendimiento de tal manera que se pueda capturar todo el valor agregado por cada empleador para la Institución inclusive se adopta capacitarlo para encarnar sus propias ideas y para llevarlas a la práctica.

  • Pues el proceso actual no de manera eficiente todo el valor por cada empleador lo cual resta conocimiento al Área de trabajo.

  • La implementación se ejecuta con una estrategia educativa y de comunicación a través de cursos, reuniones, aportes, informes, registros, módulos de trabajo, etc., reservando un espacio para la capacitación, la consultoría y control de gestión del conocimiento en el área de trabajo y para la Gestión de decisiones.

miércoles, 28 de octubre de 2009

"Capital Intelectual en la Organización y las TIC (Art. 03)”

Entender cómo funciona y de aprender a administrar el potencial humano que trabaja en una organizacón resulta muchas veces complicado de definir en la mayoría de instituciones. Es un bien complejo que si bien pertenece a la organización incluye al capital humano, patentes, marcas y sistemas de la empresa - y al capital cliente que es el valor de sus relaciones comerciales.

El uso de este activo en la era de internet debe generar un funcionamiento on-line en tiempo real implicando la creación del sistema nervioso digital de la empresa.

Desde el punto de vista humano el capitalismo inspira temor porque la globalización ha llevado a la desvalorización del hombre y de su autoestima. Además el sistema educativo formal con su orientación enciclopedística no se adecua a las exigencias de la época.

El saber por el saber mismo es relativo a un pasado que lo admiraba como a un adorno. Hoy se privilegia el aprender a transformar el conocimiento en resultados en el marco de una estrategia. El trabajador intelectual y la organización se necesitan mutuamente para satisfacer al cliente el personaje central de la economía moderna

QUÉ ES EL CAPITAL INTELECTUAL HUMANO CONVERTIDO EN CAPITAL DE LA EMPRESA
No se trata de afirmar que el vínculo entre la empresa y el trabajador esté roto sino que ha cambiado el formato, ambos se necesitan.
El problema actual consiste en no hacer más de lo mismo que no está dando resultados ya que de esta manera se profundiza el conflicto. Lo que sugerimos es relacionar el capital humano con la política de incentivos de la empresa.

Lo que se pretende es que el trabajador esté motivado a transferir su saber y se acostumbre a transmitir sus observaciones productivas para que luego se incorporen en el marco de una relación sistémica gana-gana.

Una verdadera fábrica de ideas con un tanque que las recibe, un filtro que las procesa, un proyecto que las sincroniza y un equipo que las convierte, pondrá en marcha en un ciclo continuo de afirmación de la creatividad en el marco de una alianza estratégica de la empresa con su gente. El planteamiento en la Universidadd incluir a los agentes externos: clientes, proveedores, estado, aliados estratégicos, público en general, etc.

La diferencia entre la metodología propuesta y el sistema de sugerencias tradicional es que se trata de un proceso de formulación continua de proyectos que enlazan la estrategia del individuo con el propósito de la organización para lograr el cuimplieminto de los objetivos en el área.

Como ya no puede asegurar empleo de por vida, el deber de las empresas es ofrecer un entrenamiento superior que permita lograr la empleabilidad orientada hacia el autoemprendimiento capacitándolo para encarnar sus propias ideas y para llevarlas a la práctica.

La implementación se ejecuta con una estrategia educativa y de comunicación a través de cursos, revistas, carteleras, reuniones, concursos, etc., reservando un espacio para la capacitación, la consultoría y control de gestión.

martes, 20 de octubre de 2009

"Organización y Gobierno (Art. 02)”

ORGANIZACIÓN Y GOBIERNO
Entre las principales áreas de organización en la Universidad podemos detallar las siguientes:

Rector Universitario
De quién depende la labor y ejecución de proyectos así como la planificación y aprobación de disposiciones por parte de la Universidad privada de Tacna (UPT).

Director Académico
Encargado de velar por todas las tareas, normas, disposiciones entre muchas otras tareas a nivel educativo dentro de la Universidad privada de Tacna (UPT).

Director Administrativo
Encargado de velar por todas las tareas, normas, disposiciones entre muchas otras tareas a nivel administrativo dentro de la Universidad privada de Tacna (UPT).

Jefe de Personal
Encargado de velar por todas las tareas, normas, disposiciones entre muchas otras tareas del personal que labora dentro de la Universidad privada de Tacna (UPT).

Jefe de Abastecimientos
Encargado de velar por todas las tareas, actividades, logística, normas, disposiciones entre muchas otras tareas a nivel logístico, almacenamiento, inventariado entre muchas otras dentro de la Universidad privada de Tacna (UPT).

Jefe de Admisión
Es el órgano superior de dirección, ejecución, evaluación y promoción de marketing publicitario entre la Universidad privada de Tacna (UPT) y la comunidad.

Jefe de Administración
Encargado de velar por todas las tareas, disposiciones entre muchas otras tareas de la parte administrativa de la Universidad privada de Tacna (UPT).

Asamblea Universitaria
La Asamblea Universitaria es el máximo organismo normativo de la Universidad Privada de Tacna (UPT).

Consejo Universitario
El Consejo Universitario es el órgano superior de dirección, ejecución, evaluación y promoción de la Universidad privada de Tacna (UPT).

miércoles, 14 de octubre de 2009

"Proyecto KM de la UPT - Área de Abastecimientos (Art. 01)”

Definición de la Organización
La Universidad Privada de Tacna es una institución de carácter privado sin fines de lucro, esta se crea por iniciativa del Presbítero Luis Mellado Manzano, con la Ley Nº 24060 dada por el Congreso de la República el 3 de enero de 1985 y publicada en el Diario Oficial “El Peruano” el día 09 de enero de 1985. Se inicia con las Facultades de Educación, con la Carrera Profesional de Matemáticas; Ingeniería Electrónica y Derecho y Ciencias Políticas. El 05 de Diciembre de 1998 en Sesión Extraordinaria de Asamblea Universitaria, el Mag. Segundo Vargas Tarrillo es elegido nuevamente como Rector de la Universidad para un segundo periodo y en esta misma Asamblea es elegido Vicerrector Administrativo el Mag. Percy Che-Piú Salazar y como Vicerrector Académico el Profesor Luis Cohaíla Tamayo. En la Universidad del siglo XXI, las tecnologías de la información y la comunicación (TIC) constituyen el principal soporte para los procesos de aprendizaje, creación y gestión del conocimiento. La UPT en la actualidad es referencia en aplicación de TIC, con red wifi en la totalidad del Campus y numerosos laboratorios informáticos de uso por los estudiantes, especialmente en la Biblioteca. La UPT está concebida en un modelo de campus diversificado, con infraestructuras para el trabajo de la comunidad universitaria, librería, cafeterías, etc., así como una amplia oferta deportiva y cultural que facilitan la vida en una “ciudad universitaria” inmersa en un campus amigable, con un gran respeto por el medio ambiente. La formación académica que reciben nuestros estudiantes debe ser una garantía para su inserción laboral, pero a la vez, la Universidad debe ser un medio de cultivo donde se formen hombres y mujeres llenos de valores culturales, éticos y sociales.
El crecimiento contínuo de la Institución ha permitido el mejoramiento de sus procesos pero aún mantiene la falencia de otros los cuales generan pérdidas de tiempo, personal, material, activos, conocimiento, es decir activos valiosos para la Institución.

Misión
Somos una Universidad Privada sin fines de lucro, dedicada a crear, preservar y difundir la verdad, el conocimiento y la cultura en la formación humanística, científica y tecnológica de estudiantes y profesionales, con flexibilidad en el ingreso que permite dar una amplia cobertura, incluyendo los tecnólogos, garantizando ciclos continuados y trato personalizado con alto nivel académico, competitividad y oportuna titulación , inspirada en principios éticos y visión integral, transformadora y capaz de contribuir con el desarrollo social sostenible, justo, trascendente y capacidad de emprendimiento para el logro de una mejor calidad de vida en el sur del Perú, norte de Chile y oeste de Bolivia.

Visión
La Universidad Privada de Tacna forma profesionales que contribuyen al avance de la ciencia y la tecnología para el desarrollo sustentable y satisfacción de las necesidades de la sociedad. La Universidad Privada de Tacna desarrolla actividades de postgrado del más alto nivel y excelente clima organizacional que garanticen los procesos formativos y de investigación coherente con las exigencias de autoevaluación, acreditación que responden a necesidades regionales, nacionales e internacionales. La UPT, a través de la ciencia y tecnología responde a la demanda del medio y a las exigencias de calidad internacional para lograr el cambio y el desarrollo social, sostenible, científico y tecnológico; Con participación de profesionales calificados de alto desarrollo personal, el uso de estrategias y recursos que aseguren la actividad científica interdisciplinaria.

lunes, 5 de octubre de 2009

"Factibilidad de las Tecnologías de Información (Art. 05)”

EVALUAR FACTIBILIDAD
Después de definir la problemática presente y establecer las causas que ameritan de un nuevo sistema, es pertinente realizar un estudio de factibilidad para determinar la infraestructura tecnológica y la capacidad técnica que implica la implantación del sistema en cuestión, así como los costos, beneficios y el grado de aceptación que la propuesta genera en la Institución. Este análisis permitió determinar las posibilidades de diseñar el sistema propuesto y su puesta en marcha, los aspectos tomados en cuenta para este estudio fueron clasificados en tres áreas, las cuales se describen a continuación:
La Factibilidad Técnica
Consistió en realizar una evaluación de la tecnología existente en la organización, este estudio estuvo destinado a recolectar información sobre los componentes técnicos que posee la organización y la posibilidad de hacer uso de los mismos en el desarrollo e implementación del sistema propuesto y de ser necesario, los requerimientos tecnológicos que deben ser adquiridos para el desarrollo y puesta en marcha del sistema en cuestión. De acuerdo a la tecnología necesaria para la implantación del Sistema para la UPT (abastecimiento), se evaluó bajo dos enfoques: Hardware y Software.
La Factibilidad Económica
Como se mencionó anteriormente en el estudio de factibilidad técnica, se contaba con parte de las herramientas necesarias para la puesta en marcha del sistema, por lo cual el desarrollo de la propuesta no requirió de una inversión inicial pero si necesito un costo por aquellas herramientas como SQL Server y Visual basic.net 2005.
La Factibilidad Operativa
Nos permite predecir, si se pondrá en marcha el sistema propuesto, aprovechando los beneficios que ofrece, a todos los usuarios involucrados con el mismo, ya sean los que interactúan en forma directa con este, como también aquellos que reciben información producida por el sistema. Por otra parte, el correcto funcionamiento del sistema en cuestión, siempre estará supeditado a la capacidad de los empleados encargados de dicha tarea.La necesidad y deseo de un cambio en el sistema actual, expresada por los usuarios y el personal involucrado con el mismo, llevó a la aceptación del sistema, que de una manera más sencilla y amigable, cubra todos sus requerimientos, expectativas y proporciona la información en forma oportuna y confiable. Basándose en las entrevistas y conversaciones sostenidas con el personal involucrado se demostró que estos no representan ninguna oposición al cambio, por lo que el sistema es factible operacionalmente. En el proceso de adiestramiento se detallaron los aspectos de actualización de conocimientos y nuevas formas en el procesamiento de transacciones que representan el manejo del nuevo sistema.
Con la finalidad de garantizar el buen funcionamiento del sistema y que este impactará en forma positiva a los usuarios, el mismo fue desarrollado en forma estándar a los procedimientos existentes, presentando una interfaz amigable al usuario, lo que se traduce en una herramienta de fácil manejo y comprensión, tanto las pantallas como los reportes serán familiar a los operadores, contando con la opinión de los mismos para cualquier modificación del sistema.

martes, 15 de setiembre de 2009

Entensión de Data Mining - Web Minig

Forma parte del concep de Data Minig el cual aplica técnicas a documentos, índices y servicios del entorno Web. Esto se produce cuando todos los usuarios que visitan una página web dejan un rastro o algún indicio por visitar dicha página, para ello dejan como evidencia como en las famosas páginas pay per clic lo cual deja una instancia o dirección IP o bien queda grabado como archivo temporal incluso como las famosas cookies, entre muchas otras cosas que los servidores web automáticamente almacenan en una bitácora de accesos lógicos. En Web Minig se analiza y procesoa toda esta información de esta manera se puede determina el número de visitas, horarios de visitas, la cantidad de visitas por regione y tipo de inofrmación requerida ente otras más, lo cual deja de convertirse en un dato para ser información importante para un portal web, gracias a herramientas estadísticasy algoritmos que ayudan a procesar esta información es posible mostrar resultados que den un valor agregado a furutos cambios en la web así como el entendimiento a las requerimientos y necesidades de lso visitantes. Se puede clasificar en tres dominios de acuerdo a al tipo de información procesada:
1. Minería de contenido web. Analiza y descubre la temática de las páginas, así como la indexación entre sitios visitados.
2. Minería de estructura web. El sitio sitio web es el nodo y los links son los enlaces.
3. Minería de uso web. Analiza el uso de la página web, palabras más buscadas, sitios más visitados, tiempo promedio, número de links y diseño del entorno web.

http://www.uoc.edu/web/esp/art/uoc/molina1102/molina1102.html

lunes, 14 de setiembre de 2009

10 pasos utilizando web Mining

Un sitio de comercio electrónico necesita saber acerca de las preferencias y estilos de sus visitantes. En la Web Mining, se desea saber qué se está vendiendo y que se puede ajustar su inventario y su plan de pedidos entre otros. Conocer cómo vender y qué incentivos, ofertas y anuncios, y cómo debe diseñar su sitio para optimizar sus beneficios, de hecho si se está usando un analizador de tráfico de sitios Web, estos datos pueden estar listos en el formato para el análisis adicional de la minería, es decir se puede optimizar el proceso siguiendo por ejemplo los siguientes pasos:

1. Identificar el objetivo - tipo de información que se requiera.
2. Seleccionar los datos - seleccionar el servidor y datos organizacionales relacionados.
3. Prepararlos - determinar atributos importantes.
4. Evaluarlos - seleccionar y evaluar la estructura de análisis
5. Formar la solución - solución al modelo de negocio.
6. Seleccionar las herramientas - herramientas, características a utilizar.
7. Construir los modelos - estrucutrar el web mining con toda la información relevante.
8. Validar resultados - discutir los resultados obtenidos.
9. Deliberar resultados - establecer un informe detallado de todo el proceso.
10. Integrar soluciones - compromiso de mejora continua del modelo de negocio.


http://www.b-eye-network.com/view/9295

viernes, 11 de setiembre de 2009

Beneficios Web Mining en servidores web y clientes web

Web Minig en Servidores:
Hoy en día podemos tener acceso a gran cantidad de información personalizasa gracias web minig en servidores web pues ahí opdemos gestionas cada requerimiento de los clientes, browsers, temporales, entre otros que con la ayuda de los log de transacciones web podemos analizar estadísticas, accesos es decir gestionar ese conocimiento implícito para adaptarlas al entorno web. Para ello existen herramientas que nos permiten generar reportes, gráficos, esquemas sobre el uso del servidor web, ente las más conocidas están Webtrends, Getstats, Analog, Microsoft Interse Market Focus. Hay varias herramientas desarrolladas que aplican este concepto tanto a nivel comercial como académico. Entre los principales beneficios tenemos:
* Excelente performance del servidor web
* Fácil navegación del sitio web
* Mejorar las aplicaciones Web
* Descubrir potenciales clientes
* Colocar publicidad estrategicamente.

Web Mining en Clientes:
Internet es un inmenso lugar para colocar información, además de ello cuenta con poderosos buscadores que nos facilitan el trabajo. Estas herramientas se basan en toda la codumentación que se encuentra en la web, los mismos buscadores, los cuales se adaptan a las necesidades de los usuarios pues se observa que los desarrollos realizados a nivel cliente realizan algoritmos complejos clustering con el propósito es organizar mejor la información que poseen los usuarios oymejorar los métodos de búsqueda de información.
En esta sección observamos que los algoritmos clásicos de clustering no son adecuados para manejar información documental, más aun si se tiene en cuenta la gran cantidad que existe de ella. Es por ello que se implementaron nuevos algoritmos más eficientes y adecuados. Los algoritmos de clustering utilizan el particionamiento de componentes principales siendo más eficientes debido a que no dependen de la elección de la función de distancia y disponen características de forma que estén más cercanos aquellos que tengan características comunes. El proceso de simplificación de información es utilizando estas técnicas pues con ellas lograremos filtrar información incorrecta, y con ello se determinará la los temas o cantidad de información que los clientes soliciten.


http://www2.ing.puc.cl/gescopp/Sergio_Maturana/SAG/Webmining.html

jueves, 10 de setiembre de 2009

Ventajas y Desventajas que presente la Gestión del Conocimiento

Una de las Ventajas de la KM, es el poder describir las competencias de un cargo o puesto que se exige en cualquier trabajo debido a la calidad y competencia, lo cual permite buscar al personal más idóneo o competente para que una organización de a conocer su capacidad y sea un aporte. La gestión del conocimiento no es sólo una aplicación informática, sino un conjunto de actividades en las que participan el software, el hardware y sobre todo las personas. La KM en cuanto a la enseñanza permiten detectar ciertas ventajas y desventajas.
Ventajas para la organización:
  1. La formación on line reduce los costos derivados de los desplazamientos para asistir a cursos de formación (online).
  2. Formación empresarial a medida, just in time.
  3. Mayor uniformidad en la formación del personal en la empresa.
Desventajas para la organización:
  1. Disminuye el trabajo en equipo.
  2. Poca adaptabilidad del personal a los cambios.
Ventajas para el empleado:
  1. Flexibilidad en tiempo, lugar y horario.
  2. Personal como verdadero agente de formación.
Desventajas para el empleado:
  1. Debe existir una buena utilización de herramientas para mejorar la calidad de vida de las sesiones de formación y capacitación.
  2. Para que la formación se dé se requiere la voluntad del personal y eso no se asegura en caso fuese online.

http://www.slideshare.net/vmsamaniego/ventajas-sobre-gestion-del-conocimiento

Gestión del Conocimiento y el Rendimiento de los Procesos

Uno de los factores que separa a los individuos y organizaciones: "la actividad humana colectiva". Una de las organizaciones de la razón se debe a que existe la actividad humana colectiva aumenta en gran medida la escala de operaciones y el alcance de los procesos que pueden ser llevadas a cabo por las organizaciones. Las organizaciones pueden lograr más que los individuos que actúan solos o piensan independientemente de sus compañeros de trabajo. Organizar también los rendimientos de mayor complejidad. Considerar el típico "cumplimiento de la orden" del proceso. Este proceso es a menudo definido como limitado en un extremo de la recepción de una orden de un cliente y, en el otro extremo, por el recibo de pago del cliente. El proceso de cumplimiento de la orden puede incluir docenas o cientos de personas, de datos a gran escala de sistemas de tratamiento e inclusive miles de pasos de procesamiento. Muchos productos en la ruta o salidas se producen. Dependiendo del diseño del proceso, las funciones que están involucrados varios: la entrada de pedidos, la fabricación, transporte y distribución, facturación, crédito y cobranzas, también.
En estos procesos empresariales, el conocimiento y el conocimiento del proceso se encuentra fragmentado, sino que se distribuye entre las personas, equipos, funciones e incluso organizaciones. Con frecuencia, no sólo una persona tiene una comprensión completa de todo el proceso. Tanto como cualquier otra cosa, esto indica que el valor potencial de un esfuerzo de KM, que permite el acceso e intercambio eficaces de alta calidad, pertinente, oportuna conocimientos arriba, abajo, ya través de las líneas orgánicas, especialmente las líneas funcionales y de organización que se traducen en fragmentación procesos.

http://home.att.net/~nickols/KM_and_Processes.htm

¿Dónde y cómo está la KM en los Procesos de una Organización?

Podríamos encontrar la respuesta en la mayoría de procesos de cualquier organización sin importar el rubro o envergadura de la misma, como se muestran a continuación:
  1. Información de entradas y/o salida: Un conocimiento es como un insumo de producción, es decir, como un insumo que se va a operar y se traducen en una salida. Por ejemplo en un área de o departamento de marketing, cada uno depende en gran medida de los conocimientos de entrada desde el exterior, es decir datos, reportes de gatos, clientes, noticias, etc. Estas entradas son luego operadas o transformadas a través de un análisis o evaluación experimental para producir una filtrado de información y dar una salida única a cada ente de trabajo.
  2. Reguladorres o controladores: Los controles juegan un papel importante a la hora de tomar un conjunto de información previamente filtrada. Por ejemplo un sistema de reposición automático necesita varios filtros de control, pues el sistema está programado para producir determinados productos de forma automática, pues el objetivo primordial o requerido es ofrecer un producto de calidad por ende un buen servicio. Todo ello podría reflejar el conocimiento acerca de una serie de productos en producción, tiempos de procesamiento de los mismos y de respuesta en cuanto al proceso producto desde materia prima hasta producto final.
  3. Procesadores o transformadores: En esta etapa se realizan acciones necesarias para producir un resultado óptimo del proceso. Una de las acciones a realizar es automatizar los procesos para lo cual optimiza y acelera el proceso de producción. Esto se da a menudo en una serie de programadas informáticos o workflow de trabajo que se encargan de estas operaciones pero que tienen un alto costo de implementación, pues pla mayoría de ellos maneja complejos algoritmos de automatizado. Este tipo de conocimiento es también integrado "codificado" en el proceso de gestión administrativa.
  4. Modelar o Diseñar: Con el pasar del riempo es sabido que la evolución de algunos procesos han hecho que la mayoría de empresas opte por renovar sus infraestructuras en cuanto a TI, pero otros han reformulado la etapa de análisis y diseño de procesos críticos, también conocido como reingeniería de procesos. Como consecuencia, una gran cantidad de conocimiento es implantado en estos procesos en forma específica. Parte de este conocimiento es evidente, como puede ser el caso con la secuencia de operaciones que conforman el proceso. También puede ser evidente de manera implícita en los casos en que se replantee el diseño y modelamiento de procesos en una organización pues podría reflejarse en las normas de cumplimiento, podría no ser tan fácil de llevar a cabo siempre y cuando se establezcan normas de cumpliemiento previamente establecidas para una optima mejora de recursos.

http://home.att.net/~nickols/KM_and_Processes.htm

jueves, 3 de setiembre de 2009

Gestión del Conocimiento en las Organizaciones

El conocimiento de valor para las organizaciones es aquel que se relaciona directamente con las acciones dirigidas hacia la visión estratégica de la empresa así como sus objetivos fundacionales y su permanencia activa durante su vida útil. Analizando las relaciones entre cada una de las personas componentes de las organizaciones o grupos de trabajo, serán éstas, con sus conocimientos y relaciones, las que establecerán las capacidades de cada uno de dichos grupos. Es imprescindible conocer como se verán fortalecidas dichas capacidades grupales al determinar los niveles de conocimiento, cohesión y confianza existentes en cada una de dichas redes.
El conocimiento de la organización es el resultado de la integración del pensamiento colectivo materializado en las mejores prácticas, de los modelos mentales del staff, de la gestión de procesos de empresa y tanto del control y gestión del conocimiento tácito como de la business intelligence. También las empresas tienen una percepción, una memoria dinámica y una memoria a largo plazo.
El conocimiento se construye en la mente de las personas, de los expertos. La producción de información, las rutinas organizativas, los procesos de empresa y la cultura de negocios constituyen la esencia del comportamiento empresarial o también conocida como cultira organizacional. Las organizaciones tienen cuidado en no confundir conocimiento con información o gestión del conocimiento con tecnología de la información, todo ello tiene como objetivo primordial centrarse en el uso eficiente de sus recursos y procesos.

http://www.gestiondelconocimiento.com/documentos2/apavez/gdc.htm

miércoles, 2 de setiembre de 2009

Gestión del Conocimiento y las TIC

La tecnología es un componente fundamental de la KM, pero es la interacción humana con la información representada bases de conocimiento conceptual lo que permite y simplifica el razonamiento, la innovación y la estructuración de la estrategia en las organizaciones. Es correcto reconocer como tales los departamentos SID (sistemas de información para la dirección) o SAD (Sistemas Automatizados de Dirección) o TI (tecnología informativa). SID y TI son departamentos que se ocupan de cómo la tecnología puede servir los objetivos empresariales. La GC se ocupa de las capacidades y de la sabiduría empresarial que influencia el modo en que se conduce la organización. Desde las medianas empresas hasta empresas gigantescas necesita de métodos o instrumentos para recopilar, representar, almacenar, compartir y gestionar el conocimiento. La GC y la TI tienen una relación simbiótica. La TI hace posible la compartición veloz de las estructuras empresariales, pero son los seres humanos los que determinan el análisis experto y superior con lo que pueden contribuir al sistema de conocimientos.
Si bien los datos y la información son obligatorios en la gestión del conocimiento, el análisis racional que estimula la creatividad y conduce a la innovación y al perfeccionamiento no puede ser sustituido por una búsqueda profunda (o data mining) en una base de datos (o datawarehouse). Cómo representar procesos o reducir la complejidad en otro modo que no sea la representación estructural. La KM la capacidad de análisis y la creatividad no se estimulan con un grande volumen de datos; la KM y las TI no sólo no se excluyen mutuamente, es decir son temas distintos pero que se relacionan y se manejan recíprocamente, ambos recursos son indispensables, aunque son temas muy distintos.

http://www.conceptmaps.it/KM-KnowledgeManagement-esp.htm

Capital Intelectual

El capital intelectual es conocimiento, pero no cualquier tipo de conocimiento, tiene que rendirle utilidad a la empresa, para generarle o aumentar su eficiencia y productividad. Un empleado puede ser un excelente pianista, pero esa destreza no tiene utilidad para el negocio. Los elementos que conforman el capital intelectual (desde la óptica de Leif Edvinson):
a) Capital Humano.
Conjunto de conocimientos, habilidades, actitudes, y destrezas de las personas que componen las organzaciones.
b) Capital estructural.
Conocimientos desarrollados y explicitados por las organzaciones, integrado por los siguientes elementos:
* Capital clientes
Activos relacionados con los clientes (marcas registradas, fidelidad del cliente, listas de clientes etc).
* Procesos
Referido a la forma como la organización añade valor a través de las diferentes actividades que desarrolla.
* Capacidad de innovación.
Capacidad de mantener el éxito de la organización a través del desarrollo de nuevos productos o servicios, brindándole implícitamente un valor agregado a la empresa.

http://www.gestiopolis.com/recursos/documentos/fulldocs/ger/capintel.htm

martes, 1 de setiembre de 2009

Proyectos de Gestión del Conocimiento

Algunos tipos de proyectos de gestión del conocimiento se pueden catalogar dentro de las clases que se detallan a continuación:
  • Capturar conocimiento estructurado dónde se reconoce que el conocimiento se encuentra empapado en los componentes de salida de una organización, tales como diseño de productos, reportes, procedimientos de implementación, código de software, entre otros.
  • Capturar y compartir lecciones aprendidas desde la práctica dónde se captura el conocimiento generado por la experiencia, el cual puede ser adaptado por un usuario en nuevo esquema de trabajo.
  • Identificar fuentes y redes de experiencia dónde se intenta desarrollar el conocimiento contenido, permitiendo visualizar y acceder de mejor manera a la experta, facilitando la conexión entre las personas que poseen el conocimiento.
  • Estructurar y mapear las necesidades de conocimiento para mejorar el rendimiento dónde se pretende apoyar los esfuerzos en el desarrollo de nuevos productos o inclusive en el rediseño de procesoshaciendo notorio el conocimiento necesario para una iniciativa de mejora.
  • Medir y manejar el valor económico del conocimiento dónde se reconoce que los activos tales como patentes, derechos de autor, licencias de software y bases de datos de clientes, crean tanto ingresos y costos para la organización, por lo que se orientan a administrarlos más juiciosamente.
  • Sintetizar, compartir o resumir, conocimiento desde fuentes externas dónde se intentan aprovechar las fuentes de información y conocimiento externas, proveyendo un contexto para el gran volumen disponible todo ello sirve de evidenciapara mejorar el proceso.
Todo lo mencionado sirve de alguna manera para relacionarse con la visión objetiva de negocios: la agregación de valor en torno a las necesidades de la empresa.

http://www.gestiondelconocimiento.com/documentos2/apavez/gdc.htm

lunes, 31 de agosto de 2009

Proceso de Gestión del Conocimiento

Un breve resumen de los procesos a llevar a cabo para la gestión del conocimiento:
  • Detectar: Definir el proceso para localizar modelos cognitivos y activos de valor para la organización, el cual radica en las personas. Son ellas, de acuerdo a sus capacidades cognitivas (modelos mentales, visión sistémica, etc.) quienes determinan las nuevas fuentes de conocimiento de acción.
  • Seleccionar: Evaluar y elegir del modelo en torno a un criterio de interés. Los criterios pueden estar basados en criterios organizacionales, comunales o individuales, los cuales estarán pueden agruparse en tres grupos: Interés, Práctica y Acción.
  • Organizar: Almacenar de forma estructurada la representación explícita del modelo.
  • Filtrar: Una vez organizada la fuente, puede ser accedida a través de consultas automatizadas en torno a motores de búsquedas. Por ejemplo puede darse el caso en que las búsquedas se basen en estructuras de acceso simples o complejas, tales como mapas de conocimientos, portales de conocimiento o agentes inteligentes.
  • Presentar: Los resultados obtenidos del proceso de filtrado deben ser presentados a personas o máquinas. En caso que sean personas, las interfaces deben estar diseñadas para abarcar el amplio rango de comprensión humana. En el caso que la comunicación se desarrolle entre máquinas, las interfaces deben cumplir todas las condiciones propias de un estándar, infraestructura, protocolo o interfaz de comunicación.
  • Usar: Es la forma como emplear el uso del mismo lo cual reside en el acto de aplicarlo al problema objeto de resolver. De acuerdo con esta acción es que es posible evaluar la utilidad de la fuente de conocimiento a través de un feedback.
Siguiendo cada uno de estos pasos de puede filtrar contenido importante y aprovechar al máaximo el valor intangible que este en la empresa; por lo tanto es posible desarrollar el concepto de proyecto de KM teniendo como objetivo generar las instancias que reflejen de manera práctica cada una de las etapas del proceso.

http://www.gestiondelconocimiento.com/documentos2/apavez/gdc.htm

viernes, 21 de agosto de 2009

Definiendo la Gestión del Conocimiento

La GC es un concepto utilizado para gestionar los activos débiles en una organización, el objetivo que se persigue es transferir el conocimiento y experiencia existente en los empleados, de modo que estos sean utilizados como un recurso disponible para otros en la misma organización. La Gestión del Conocimiento pretende poner al alcance de cada empleado la información que necesita en el momento preciso y oportuno para que su actividad sea productiva y efectiva. El modelo debe ser sencillo, y de fácil aplicación. Debe estar basado en cuatro pilares fundamentales: cultura, políticas, confianza y compromiso. Ninguno de puede estar ausente pues todos influyen en el proceso. Tanto la cultura como las políticas, deben estar orientadas y fomentar esta práctica, ya que lograr que la gente comparta su conocimiento, presupone haber logrado su confianza, y un compromiso por parte de la organización hacia su gente. El modelo debe funcionar como un engranaje o una secuencia coherente y en constante movimiento, en el que se cumplieran los siguientes pasos:

  • Identificar los requerimientos y la información relevante.
  • Transformar esa información en conocimiento.
  • Codificarlo y almacenarlo.
  • Compartir el conocimiento.
  • Darle valor agregado al conocimiento almacenado para su reutilización.


http://banners.noticiasdot.com/termometro/boletines/docs/paises/europa/espana/cluster-galicia/2001/conocimiento/clustergal_Definicion.pdf

martes, 28 de abril de 2009

Laptop de papel con Windows XP


Esta es la creación de la artista holandesa Evelien Lohbeck está causando sensación ya que, según ella misma, pretende confundir a la audiencia de lo que es real y lo que es ficción. "El Notebook" corresponde a un proyecto de ilustración, animación e ilusión que consta de 4 partes. Igual de original es el sitio oficial de la artista Evelien Lohbeck, corto pero preciso.

jueves, 23 de abril de 2009

Copenhagen: ¿Lo que Windows 7 debió ser?


Concepto diseñado por Cullen Dudas mostrado en un vídeo lo que él llama "Experiencia de usuario Copenhagen". Un concepto editado a partir de modelos conceptuales para dar mayor visibilidad y experiencia. Si el ambiente del vídeo te deja pensando en que has visto esto antes, es porque Cullen se inspira en el concepto de Longhorn donde algunas de las ideas fueron radicales para el diseño e implementación de la interfaz y experiencia de usuario que más adelante dieron la luz en Windows Vista.

¿En realidad Copenhagen debió ser Windows 7 o debería ser Windows 8? Creo que Windows Vista se ha puesto difícil en el camino y las exigencias del usuario son cada vez mayores.

miércoles, 15 de abril de 2009

El impacto del spam en el medio ambiente

Especialistas de McAfee, los mismos dedicados a la seguridad informática, realizaron un estudio llamado "Carbon Footprint of Spam" para reconocer y calcular a nivel mundial, la energía utilizada para transmitir, procesar y filtrar el molesto spam. Los resultados son escalofriantes, ya que se están utilizando 3 mil millones de kilowatts por hora (kWh), o lo mismo que 33 terawatts por hora (TWh). Esa cantidad es equivalente a la que utilizan, en promedio 2,4 millones de hogares, es lo mismo que emiten 3,1 millones de automóviles de gas invernadero y equivale al consumo de 2 mil millones de galones de gasolina. Este estudio se llevó a cabo en 11 países: Australia, Brasil, Canadá, China, Francia, Alemania, Japón, India, México, España, los Estados Unidos y el Reino Unido. Y correlacionó el gasto de electricidad del spam con el consumo de carbono. Algunos datos concluyentes:
"La emisión promedio de gas invernadero asociada con un solo mensaje de spam es de 0,3 gramos de CO2. Esto equivale a conducir un metro (tres pies); pero cuando se multiplica por el volumen anual del spam, equivale a conducir 1,6 millones de veces alrededor de la tierra".
"Gran parte del consumo de energía asociado con el spam (cerca de un 80%) proviene de usuarios finales que borran el spam y buscan mensajes legítimos entre el spam (falsos positivos)".
"Filtrar el spam representa solamente el 16% del uso de energía relacionado con el spam".
"Los filtros de spam ahorran 135 TWh de electricidad al año, lo que equivale a sacar de circulación a 13 millones de automóviles".
"Si cada buzón se protegiera con un filtro de spam con la más avanzada tecnología, las organizaciones y las personas podrían reducir en un 75% o en 25 TWh anuales la energía utilizada actualmente por el spam, lo que equivale a sacar de circulación a 2,3 millones de automóviles."
"Los países con una mayor cantidad de usuarios y conectividad a Internet, como los Estados Unidos y la India, tienden a tener emisiones proporcionalmente mayores por usuario de correo electrónico. Los Estados Unidos, por ejemplo, tiene emisiones 38 veces mayores que las de España. Mientras Canadá, China, Brasil, India, los Estados Unidos y el Reino Unido presentan un uso de energía similar para el spam por país, Australia, Alemania, Francia, México y España tienden a presentar alrededor de un 10% menos de uso. España presentó los valores más bajos, tanto en la cantidad de correo electrónico recibido como spam como en la cantidad de energía utilizada para el spam por usuario de correo electrónico."

martes, 7 de abril de 2009

El Sistema Operativo que se niega a morir

Microsoft asegura al mundo que el mejor Sistema Operativo que ha salido de sus hornos es el Windows XP. O por lo menos, es el software que los usuarios se rehusan a abandonar. Microsoft va a permitir a Hewlett-Packard vender sus equipos con la versión que nunca muere hasta el 30 de Abril del 2010.
"Es importante recordar a los clientes que Microsoft va a jubilar el soporte a XP Pro el 14 de abril de 2009, y sólo proporcionará las actualizaciones de seguridad críticas más allá de esa fecha a menos que el cliente tenga un contrato de soporte extendido especial el cuál finaliza el 8 de abril 2014".
Por el momento HP es el único OEM (Fabricante de Equipos Originales) que se menciona en este acuerdo con Microsoft y todos los demás tienen hasta el 31 de Julio para ofrecer sistemas con XP.

jueves, 2 de abril de 2009

Robot ASIMO controlado con la mente


Con el pasar de los años nos hemos sorprendido con los avances logrados en el desarrollo del robot ASIMO de Honda, pero lo que acaban de mostrar va un paso mas allá. Se trata de la posibilidad de controlar los movimientos del robot a través del pensamiento, lo que se logra gracias al desarrollo de una interfaz denominada Brain Machine Interface (BMI). En el desarrollo de esta interfaz trabajaron el Honda Research Institute en conjunto con Advanced Telecommunications Research Institute International y Shimadzu Corporation.

La BMI utiliza la tecnología aplicada en la electroencefalografía para interpretar los pensamientos del operador, los que son posteriormente enviados al robot para que este realice el movimiento respectivo. Según los encargados del proyecto el sistema logra obtener un 90% de efectividad, lo que augura un prometedor futuro para el desarrollo de la tecnología.

domingo, 29 de marzo de 2009

Celulares ¿Causan cáncer al cerebro?

Científicos estadounidenses han vuelto a poner la voz de alerta respecto a los efectos que el uso de móviles podría tener a largo plazo. Según estos nuevos estudios, el uso frecuente del teléfono tiene directa relación con el surgimiento de lipomas, tumores benignos y cancerosos. Además, se postula que una persona que usa comúnmente un celular, tiene más riesgo de generar tumores que afecten el nervio auditivo y la glándula salival del lado en que se usa el móvil.

Otra de las conclusiones a las que llegaron estos científicos fue que las ondas de un teléfono celular penetran de forma más profunda en los cerebros de niños que en adultos, lo que representa un riesgo mayor para este segmento de usuarios indirectos que, en un plazo cercano a los 10 años, podrían desarrollar enfermedades derivadas de la exposición a radiofrecuencias de forma constante. Los científicos hacen un llamado a la FCC para que revise sus criterios técnicos para regir de forma más rigurosa la norma de emisiones de radiofrecuencias; así también, se pidió que los gobiernos desarrollen políticas de salud pública para obligar a las distribuidoras de móviles a informar del daño que los aparatos provocan.

viernes, 27 de marzo de 2009

Microsoft y el talón de aquiles de los Mac

<a href="http://video.msn.com/?mkt=en-US&playlist=videoByUuids:uuids:0bb6a07c-c829-4562-8375-49e6693810c7&showPlaylist=true&from=shared" target="_new" title="Laptop Hunters $1000 &#8211; Lauren Gets an HP Pavilion">Video: Laptop Hunters $1000 &#8211; Lauren Gets an HP Pavilion</a>
Hace algunos días Steve Ballmer señalaba que en tiempos de crisis la gente lo iba a pensar mejor antes de gastarse USD$500 extras en un computador con logo de Apple. Ahora este nuevo aviso de Microsoft describe exactamente eso, el precio.
Lauren es una chica que necesita un nuevo laptop. Microsoft le da la misión de encontrar uno que se ajuste a sus requerimientos pero con un tope de USD$1.000. Si encuentra uno así, se lo puede quedar. La pelirroja entra a una tienda Apple y sale con las manos vacías porque los que le sirven son demasiado caros y el que puede comprar es muy pequeño. Luego entra a otra tienda y se encuentra con una amplia oferta de equipos, quedándose al final con un HP Pavillion de USD$699.99 nada mal. ¡Felicitaciones Lauren!.

domingo, 22 de marzo de 2009

Conficker programado para el 01 de abril

Según un último reporte de la New York Times, el virus Conficker que ya ha infectado al menos 12 millones de máquinas en todo el mundo y que está programado para activarse el día del 01 de abril podría resultar en una gran broma como parte del April fools’ day que se celebra en Francia, Alemania, Reino Unidos y Estados Unidos. Pero según John Markoff del New York Times esto podría ir más alla de un simple broma ya que la estructura aún no descifrada de la variante Conficker.C tiene un intrigante diseño "Peer-to-peer" que hacer que los equipos infectados puedan actuar como clientes y servidores compartiendo archivos en ambos sentidos.

Mientras unos creen que mediante el virus se tomará el control para formar una Freenet, otros aseguran que el gusano podría ser usado para ataques del tipo DoS o para recolectar información personal como sugiere Stefan Savage de la Universidad de California, en donde se crearía un ”Dark Google” del bajo mundo para estafadores que buscan datos a través de todas las computadoras infectadas. El gusano explota una vulnerabilidad en el servicio Windows Server usado por Windows 2000, Windows XP, Windows Vista, Windows Server 2003, Windows Server 2008, y el beta de Windows 7.

viernes, 13 de marzo de 2009

IE8 más rápido que Chrome y Firefox

Siempre ha sido así, cada navegador dice ser el mejor del mundo. En esta ocasión, le tocó el turno a Microsoft, que acaba de publicar un elaborado reporte donde dice haber efectuado una serie de pruebas de velocidad en los 25 sitios más famosos de Internet, y su Internet Explorer 8 resultó ser el "mejor". El completo análisis, describe como fueron hechas las pruebas y revela los resultados para cada uno de los tres navegadores.[Vídeo Ilustrativo]

En definitiva, de los 25 sitios en cuestión, IE8 fue el más rápido en 12 de ellos, Chrome en 9 y FireFox sólo en 4... Aun discutible el resultado!!

domingo, 8 de marzo de 2009

Sorprendente ordenador con 24GB de RAM


¿Exiges mucho de tu computadora? ¿Te parecen bien 24 GB de memoria RAM?. Es justamente lo que demostró Kingston en el CeBIT 2009, montando seis módulos de 4GB DDR3 ValueRAM en una tarjeta madre Gigabyte GA-EX58 UD5, junto con un procesador Intel Core i7 920 y una tarjeta NVIDIA. Con esta enorme cantidad de Memoria y el procesado no tendrás ninguna queja de tener todas esas maquinas virtuales que siempre quisiste abiertas, al mismo tiempo que juegas y renderizas en 3D. Si fuera Tony Stark pediría tres juguetes de estos junto con el gabinete Thermaltake de Level 10 PC creado en asociación con BMW Designworks y que también fue visto en CeBIT, aunque se desconoce si solo es un concepto o se liberará de manera comercial. Lo que en apariencia sabemos es que tiene un sistema de enfriamiento, 6 módulos independientes para unidades de almacenamiento y dos para unidades ópticas.

sábado, 7 de febrero de 2009

Bill Gates lanza mosquitos en conferencia TED


Ahora que Bill Gates se dedica de tiempo completo a la fundación Bill & Melinda Gates, no nos queda la menor duda de que se lo toma en serio. Recientemente en la TED o Conferencias de Tecnología, Entretenimiento y Diseño, Gates hablaba de como se destina más dinero en combatir la calvicie que en la malaria. Acto seguido dijo que la malaria se esparce por mosquitos y que el tenía algunos consigo. Los liberó diciendo: “No hay razón para que la gente pobre sea la única afectada”.

Por supuesto que hubo risas -¿nerviosas?- y aplausos. Segundos después dijo que sus mosquitos estaban libres de malaria, pero estoy seguro que a más de un asistente se le cayeron los calzones del puro susto, a mi se me hubieran caído. ¡Buen Ejemplo!

jueves, 5 de febrero de 2009

Linux mal parado en Benchmark - JavaScript

Los muchachos de TuxRadar hicieron un benchmark para comparar el rendimiento del motor de JavaScript de Mozilla 3.0 entre Windows y en Linux y los números son poco favorables a Linux. La prueba fue realizada entre Windows XP SP3 y Fedora 10, ambos corriendo en 32 bits sobre un Intel Core 2 Quad a 2.66Ghz, con 4GB en RAM y 1.5TB de disco (estos últimos dos datos son irrelevantes para estas pruebas, pero los incluyo por si hay dudas).
El rendering no es parte de las pruebas, eso aisla el motor de JavaScript de factores externos como puede ser un driver de video o un método de rendering de bajo nivel, sería bueno algún día contar con ese tipo de pruebas para ver qué cosas se pueden mejorar.

Las pruebas aplicadas fueron SunSpider (WebKit.org), V8 Benchmark Suite (Google) y Dromaeo (Dromaeo.com/Mozilla). Estas pruebas ejecutan operaciones típicas de JavaScript que se usan en frameworks como Dojo, GWT y JQuery, por lo tanto son representativas de lo que podemos esperar de una aplicación del mundo real. Las tres pruebas arrojaron resultados desfavorables para Mozilla corriendo sobre Linux. Afírmense los Linux fanboys porque aqui está el resumen de las pruebas:
SunSpider : Windows es 11% más rápido que Linux
V8 Benchmark Suite : Windows es un 32% más rápido que Linux
Dromaeo : Windows es un 36% más rápido que Linux