Palabra Clave (La Plata), Octubre 2018, vol. 8, n° 1, e055. ISSN 1853-9912
Universidad Nacional de La Plata
Facultad de Humanidades y Ciencias de la Educación
Departamento de Bibliotecología

Dossier: Software libre y código abierto:
experiencias innovadoras en bibliotecas y centros de información

Funciones del Software Libre para la Vigilancia Tecnológica

Paulina Arellano-Rojas

Universidad de Playa Ancha. Facultad de Ciencias Sociales. Departamento de Ciencias de la Documentación, Chile

Cita sugerida: Arellano-Rojas, P. (2018). Funciones del Software Libre para la Vigilancia Tecnológica. Palabra Clave (La Plata), 8(1), e055. https://doi.org/10.24215/18539912e055

Resumen: El presente trabajo tiene como objetivo identificar las funciones que un software libre para la Vigilancia Tecnológica (VT) debe integrar, y con base en esto, definir las competencias que requiere el profesional de la información actual para evaluar, adquirir, manejar y difundir estas plataformas, aprovechando al máximo sus propiedades. Se realiza una revisión de la vigilancia como técnica y se definen las características técnicas que deben tener estos programas, para finalmente describir las competencias y habilidades de los profesionales a cargo. Los resultados establecen que un programa eficiente permite la extracción precisa y rápida de información desde fuentes heterogéneas (diversos formatos y a texto completo), mediante búsquedas avanzadas para la visualización gráfica e interactiva de contenidos que faciliten al vigía tecnológico la elaboración y diseminación de alertas, boletines o informes. Por tanto, las competencias profesionales se vinculan a la construcción de sistemas de organización del conocimiento, la descripción documental mediante la generación de metadatos, la inclusión de ontologías y dominio de modelos de metadatos para estructurar sistemas de información.

Palabras clave: Software libre, Vigilancia tecnológica, Habilidades y competencias bibliotecarias.

Functions of Free Software for Technology Watch

Abstract: This paper aims at identify the functions that a free software for Technolgy Watch (TW) should integrate, and based on this, define the competencies required by the current information professional, to evaluate, acquire, handle and spread these platforms, making the most of their properties. A review of surveillance is done as a technique, and, the technical characteristics that these programs must have are defined, to finally describe the competences and skills of the professionals in charge. The results establish that an efficient program allows the accurate and rapid extraction of information from heterogeneous sources (diverse formats and full text), through advanced searches for the graphic and interactive visualization of contents, which facilitate the technological watchdog the elaboration and dissemination of alerts, bulletins or reports. Therefore, professional competences are linked to the construction of knowledge organization systems, documentary description through the generation of metadata, the inclusion of ontologies and mastery of metadata models to structure information systems.

Keywords: Free Software, Technology Watch, Librarians' Skills and Competency.

1. Introducción

La adquisición de conocimiento por parte de los individuos comienza con la captura de datos del entorno, los cuales una vez estructurados y transformados en información pueden asimilarse y convertirse en conocimiento (Arias Pérez y Aristizábal Botero, 2011). Este conocimiento, entendido como el conjunto de habilidades, experiencias y saberes que una persona o conjunto de ellas posee respecto a un tema, es un recurso que poseen todas las organizaciones (tanto públicas como privadas), el cual se puede gestionar (generar, almacenar, utilizar, desarrollar y comunicar) de distintas formas para convertirse en un activo estratégico del lugar, es decir, en un elemento que genere ventajas competitivas (Hidalgo y León, 2006). Esta valorización de la información y el conocimiento como fuente de productividad ha propulsado la aparición de nuevas formas de obtención de datos y de gestión de información, en función de la innovación, el desarrollo y la mejora de productos y servicios dentro de las organizaciones.

La Vigilancia Tecnológica (VT) es una técnica que facilita precisamente esa detección, selección y obtención de información estratégica sobre una organización y su entorno, para su posterior análisis y uso como base en la toma de decisiones (Palop y Vicente, 1999). Es un proceso de estudio constante, metódico y completamente legal del mercado científico y tecnológico, que se utiliza para captar datos sobre competidores, potenciales socios, nuevos productos y servicios, innovaciones tecnológicas, entre otros.

Esta búsqueda de información (publicaciones científicas, informes institucionales, patentes, modelos de utilidad, proyectos, literatura gris, etc.) evita grandes pérdidas económicas en las organizaciones, dado que previene la investigación de información redundante o el desarrollo de productos ya existentes (Rey, 2009). Abarca desde actividades simples como la búsqueda y localización de información en bases de datos y/o metabuscadores, hasta otras más complejas como la elaboración de extensas ecuaciones de búsqueda y el uso de softwares de gestión de información para el análisis de datos (cienciométricos o semánticos), que debieran ser manejadas –en mayor o menor grado– por quienes promueven la Investigación, Desarrollo e Innovación (I+D+i).

Existe una variada oferta de softwares comerciales y gratuitos para –precisamente– facilitar el ejercicio de la vigilancia tecnológica y también múltiples estudios que caracterizan sus funciones (comparando componentes y servicios, analizando ventajas y desventajas). Ejemplo de ello es el trabajo realizado por Martínez y Maynegra (2014), en el que evalúan 8 plataformas web de vigilancia tecnológica y concluyen que Hontza (de código abierto) entrega mejores soluciones informáticas para la generación de conocimientos nuevos y para la toma de decisiones dentro de la organización.

Aun así, predomina el desconocimiento por parte de investigadores, inventores, emprendedores y de la comunidad en general sobre los beneficios y utilidad de estas herramientas. Sobre esta base, se propone el software libre para promover dentro de las organizaciones el uso y dominio de programas de código abierto para la vigilancia, los cuales no requieren inversión económica (o una muy pequeña cuando los proveedores liberan la licencia, pero no los costos por desarrollo, instalación o capacitación), y que proveen ventajas de acceso, costo, libertad de uso, redistribución, seguridad, análisis y gestión de datos, ya que optimizan el acceso a una información estructurada y organizada, y mejoran la cobertura y calidad de los servicios en cualquier lugar de aplicación (Tecuatl, Arriola y Rosas, 2015).

Los requisitos para su implementación no sólo se vinculan a la obtención de licencias, sino también al adiestramiento de los usuarios (Echeverría, 2014). Debido a lo anterior, es fundamental identificar las funciones básicas que un software libre para la Vigilancia Tecnológica (VT) debe integrar, y sobre esa base definir las competencias que requiere el profesional de la información actual para evaluar, adquirir, manejar y difundir estas plataformas aprovechando al máximo sus propiedades. Los profesionales de la información –acostumbrados a implementar softwares para automatizar todo tipo de unidades de información levantando grandes repositorios digitales– deben estar capacitados para utilizar y promover estas herramientas.

2. Funciones de los softwares libres para la Vigilancia Científico-Tecnológica

Para Berges-García, Meneses-Chaus y Martínez-Ortega (2016) los softwares de Vigilancia Tecnológica e Inteligencia Competitiva (IC) son aplicaciones informáticas basadas en internet, que integran programas capaces de sistematizar, automatizar y centralizar el trabajo, monitorear cualquier fuente de información, acotar y filtrar información, analizar visualmente la información clasificada, integrar la información de forma segura, gestionar los contenidos, exportar la información en varios formatos, gestionar usuarios, difundir la información y gestionar alertas.

A pesar de la diversidad de programas automatizados que cumplen funciones dentro del ciclo de vigilancia, éstos no siempre satisfacen las necesidades de las organizaciones empresariales o de I+D+i, debido a las dificultades que genera la gestión simultánea de cuantiosas fuentes de información. Esto ha generado la necesidad de incorporar metadatos para representar los ítems, estructurar búsquedas y clasificaciones y optimizar la gestión documental, en un contexto donde la Web Semántica permite la descripción y recuperación de información mucho más precisa (Caldera-Serrano y Freire-Andino, 2016). Accart (2001) indica que los elementos a considerar dentro de un centro de vigilancia (sistemas corporativos de vigilancia de la información) son el campo de información, las fuentes de información, el valor de la información, los participantes implicados y los modos de transmisión de la información.

Entre las soluciones propuestas por los expertos está la creación de aplicaciones informáticas, adaptadas para extraer el conocimiento objetivo contenido en documentos científicos y técnicos (Bailón-Moreno, 2003), la optimización de resultados mediante la identificación de relaciones cognitivas y sociales dentro de un grupo de documentos (Bucheli y González, 2007), la innovación en la tabulación de indicadores (Macías, Guzmán y Martínez, 2009) y el diseño de software orientado a agentes (Rodríguez, 2009), entre otros.

Las herramientas gratuitas también se han pospuesto como alternativa, ya sea para montar un sistema de información en un sitio web y difundir resultados de vigilancia tecnológica, mediante la suscripción y envío de boletines por correo electrónico (Martínez y Maynegra, 2010), o para levantar sitios web que conecten la oferta y la demanda tecnológica, tanto de empresas como de personas (Carrasco, Valverde y Rivera, 2010).

Comai, Tena y Vergara (2006), hace más de una década establecieron parámetros para evaluar softwares de vigilancia basándose en las necesidades e intereses de los usuarios. Identificaron las principales características y funciones que deben incorporar estas aplicaciones, y destacaron la búsqueda y descarga de información como uno de los aspectos más relevantes, medible según la capacidad de interrogación y búsqueda simultánea en varias fuentes (bases de datos de patentes, científicas o de literatura gris, a nivel local o intranet) y según la capacidad de almacenar estrategias de búsqueda, de programar actualizaciones automáticas, de importar patentes e informaciones no patentes en varios formatos y de descargar e integrar el estado legal de la patente (incluyendo gráficos y el documento mismo a texto completo). Analizan además funciones de depuración y valorización de la información, vinculadas a la eliminación automática de duplicados, agrupación de patentes por familias, generación automática de índices, construcción de nuevos índices, asistencia para la agrupación y depuración de términos de índices, pertinencia, puntuación y anotación de comentarios en cada patente, enlaces con otros documentos relacionados y creación y edición de taxonomías. Otro criterio es la explotación referida a la generación automática de: palabras clave en cada patente, resumen, agrupación de patentes (clustering), clasificación de patentes mediante filtros semánticos, búsqueda a texto completo y búsqueda con motor semántico. También analizan la generación de representaciones gráficas (para el análisis de tendencias), donde se incluye el análisis de citas, las clasificaciones de términos (análisis de un campo), los histogramas o matrices (análisis de coocurrencia de términos en dos campos), el análisis de relaciones o redes (análisis de coocurrencia de términos en dos campos), la representación espacial o topográfica de una colección de patentes, y la integración de datos de bases de datos locales en los análisis. El quinto aspecto es la difusión y trabajo en grupo, que abarca el almacenamiento de perfiles de búsqueda de cada usuario, las alertas personalizadas por correo, las alertas sobre cambios en el estado legal de una patente, la edición automática de informes mediante plantillas, la exportación a otros formatos y los enlaces hacia diversas informaciones. La última cualidad es la gestión de la herramienta, que comprende la publicación web en la intranet/internet, la gestión de los derechos de acceso de cada usuario, la posibilidad de acceso y edición multiusuario, la personalización del acceso y la interfaz de búsqueda, la interfaz en varios idiomas, los distintos niveles de confidencialidad en documentos y la generación de estadísticas de uso del sistema.

Sin embargo, no consideran la incorporación de tecnologías semánticas y ontologías que permitan el intercambio e interoperabilidad de datos enlazados y la generación –por ejemplo– de búsquedas (preguntas) inteligentes (navegación intuitiva), gráficos interactivos, asesoría instantánea en línea, comunicación entre usuarios o acceso remoto a los datos. Por la data de la investigación, tampoco incorporan las redes sociales (fundamentales en la actualidad) como fuentes de información.

Berges-García, Meneses-Chaus y Martínez-Ortega en el año 2016 agregan nuevos elementos asociados a la web actual y proponen una metodología para evaluar las funciones e implementación de la vigilancia tecnológica y la Inteligencia Competitiva (IC) bajo un sistema de indicadores aplicables por cualquier organización, para la selección objetiva de la plataforma integral más pertinente. Dentro de las funciones asociadas a las etapas del ciclo de VT/IC exponen la identificación de necesidades, búsqueda y extracción de información, donde se identifican y clasifican las fuentes (según sectores y tipologías documentales) incluyendo bases de datos y redes sociales, y analizan la capacidad que poseen para buscar y almacenar estrategias de búsqueda (en buscadores sencillos o avanzados), y para actualizar contenidos de forma automática o manual. El segundo criterio es el filtrado y valorización de información, respecto del cual analizan la existencia de acceso directo al documento en línea (para editar, adjuntar, eliminar, comentar, valorar, imprimir, exportar y organizar documentos en distintos formatos). El tercer criterio es el análisis de la información a nivel gráfico con recuentos simples y concurrencias –incluye artículos científicos, patentes, proyectos de Investigación, I+D+i, y redes sociales–, o mediante agrupación por palabras repetidas (clustering o agrupación conceptual). También se analiza la ayuda para la comprensión de los gráficos, la capacidad de exportar gráficos a distintos formatos, de generar gráficos interactivos (eligiendo rango temporal y tipo de gráfico) y de imprimir (pantalla o plantilla de informe). El cuarto criterio sobre inteligencia estratégica analiza la disposición de indicadores de calidad de diferentes tipos de información (patentes, artículos científicos), la capacidad de combinar información de distinta tipología (autores e inventores, empresas, productos y mercado), las plantillas predefinidas para la creación de informes y de productos, y la capacidad de imprimir y exportar los informes a distintos formatos. El quinto criterio apunta a la difusión de información mediante boletines, correo electrónico, canales de noticias, sindicación de contenidos, etc. Los siguientes criterios están asociados a los aspectos técnicos, como el despliegue de un proyecto en una plataforma web, la arquitectura y seguridad de las plataformas (servidores, copia de seguridad, conexiones seguras y generación de estadísticas), la interacción del usuario con una plataforma web (navegación intuitiva y sencilla, accesibilidad y usabilidad para personas con diferentes capacidades, calidad estructural y congruencia en la presentación de información), y la experiencia de usuario en cuanto a legibilidad, flexibilidad y facilidad de aprendizaje, ayudas online, guías de usuario, tolerancia ante errores y fiabilidad de la plataforma.

La revisión bibliográfica demuestra que los sistemas de vigilancia informacional (sean estos comerciales o gratuitos) no son nuevos entre los profesionales de la información, pero también que cada vez se desarrollan aplicaciones más inteligentes –y muchas veces más complejas de manejar–, que enriquecen los resultados, pero que demandan a la vez nuevas competencias profesionales para su dominio eficaz, especialmente en cuanto a la gestión, análisis, filtrado y clasificación instantánea de miles de datos almacenados en múltiples fuentes de información.

3. Competencias del profesional de la información para el manejo de Softwares Libres de Vigilancia Científico-Tecnológica

Si bien los softwares libres para la gestión de datos constituyen soluciones tecnológicas gratuitas diseñadas para facilitar la interacción de cualquier persona con la tecnología, debe haber un profesional capacitado para operar estas plataformas.

El profesional de la información está acostumbrado a vigilar constantemente las tendencias analizando las preferencias de navegación de sus usuarios en catálogos, bases de datos, redes sociales, etc. (Upadhyay, 2015). Suele además utilizar e implementar softwares libres para la automatización de unidades de información, teniendo que evaluar aspectos como el grado de interoperabilidad de la importación y exportación de información, facilidad de auditoría, amigabilidad, eficiencia de la ejecución, facilidad de desarrollo de nuevos requerimientos, funcionalidad de la aplicación (módulos disponibles y políticas generales), entre otros. (Fernández-Morales y Chinchilla-Arley, 2013). La elaboración de estudios cientiométricos también es una práctica común entre los profesionales de la información, realizando análisis cuantitativos de la producción científica para identificar el desarrollo, estructura, dinámica, tendencias y relaciones de la práctica científica (Michán y Muñoz, 2013), investigaciones que sirven como herramienta informativa de la vigilancia (González, Sánchez y Caira, 2013). Como profesionales interdisciplinares pueden por tanto asumir las tareas de vigilancia tecnológica como la natural evolución de sus servicios, trabajando especialmente en la valorización de la información (Porto, 2009) o incluso, en el desarrollo softwares desde y para las Ciencias de la Información (Blázquez, 2016).

Para lograrlo, requieren competencias sobre construcción de sistemas de organización del conocimiento, pero también sobre descripción documental, lo cual implica la generación de metadatos, la inclusión de ontologías y el dominio de modelos de metadatos como Resource Description Framework (RDF), los cuales al estar basados en XML (lenguaje para la organización y etiquetado de documentos) permiten estructurar los sistemas de información. Por lo tanto, además de dominar las clásicas tareas técnicas de representación documental (catalogación, indización, clasificación y resumen), deben ser capaces de construir y mantener sistemas de clasificación e indización, incluyendo las normas y formatos para el diseño de información digital en base a datos estructurados (MARC, Dublin Core, RDF, SKOS, OWL, etc.) (Martínez, 2014).

El Procesamiento del Lenguaje Natural (PLN), como una subárea de la inteligencia artificial para el procesamiento automático del lenguaje, se vuelve una competencia fundamental para la extracción y recuperación de información, la generación automática de documentos, la segmentación, clasificación e indexación de documentos (análisis de texto o de caracteres, de voz o de imágenes), la creación de plantillas, la manipulación de vocabularios controlados, la construcción de ontología y el reconocimiento automático de terminología (Vázquez, 2014). Esto permitirá al profesional mejorar la experiencia del usuario de los sistemas de información, y también aprovechar los grandes datos (minería de datos) durante el proceso de VT.

La parte humana de la vigilancia es fundamental en el análisis de los datos recolectados, ya que orienta las búsquedas hacia aspectos concretos. Se trata de vigilar lo que se debe vigilar seleccionando las fuentes de información adecuadas y elaborando estrategias de búsquedas apropiadas, las cuales pueden ser simples, avanzadas, por combinación de campos, o plurilingües. Las búsquedas en diversos idiomas son elementales para obtener un panorama global en materia tecnológica, así como la aplicación de operadores booleanos y metadatos propios de la información científica y tecnológica para la filtración de resultados y para evitar el ruido informacional.

Es necesario también conocer y manejar los campos específicos del registro tecnológico, como el número de identificación, datos de solicitud (idioma, país) y del solicitante (nombre, país, nacionalidad, domicilio), mandatario, número de concesión, datos del inventor (nombre, nacionalidad), datos de prioridad (país, fecha), código CIP (Clasificación Internacional de Patentes), entre otros. Esto permitirá explorar eficientemente las bases de datos de patentes y todas las fuentes para la vigilancia (comerciales o de acceso abierto), como bases de datos científicas, referenciales, institucionales, multidisciplinarias, de estadística, bibliométricas, de proyectos, de normas técnicas, y especializadas.

Otro aspecto relevante durante el rastreo de información científica y tecnológica es la identificación de los mecanismos de protección de propiedad intelectual (propiedad industrial, derechos de autor y conexos, y variedades vegetales). Así el profesional podrá comprender la importancia del respeto a la propiedad intelectual de terceros, y guardar toda información confidencial que signifique la obtención de una ventaja competitiva.

Una vez que estén claros estos aspectos metodológicos, resulta necesario utilizar un software para centralizar, almacenar y depurar la muestra. Se requieren competencias para exportar e importar los documentos en diversos formatos (csv, texto, .xml, etc.) y para gestionar la muestra recopilada, mediante la exploración y limpieza de los datos (exclusión de aquellos que no aporten información pertinente sobre la temática tratada). La limpieza puede hacerse por términos de exclusión (eliminando aquellos registros no relacionados) o por código CIP, según las funciones de la plataforma.

Revisar las familias de patentes (para evitar la duplicidad de documentos) también es fundamental, y muchas veces ayuda a reducir considerablemente la muestra y a validar los datos obtenidos, para posteriormente representar gráficamente los resultados, mediante el software. La normalización de áreas técnicas, palabras referenciadas y solicitantes también es relevante al momento de ejecutar un análisis significativo de la información recabada, y de extraer, analizar y cuantificar los resultados.

Finalmente, es preciso poder medir las tendencias nacionales e internacionales y crear informes y alertas de vigilancia científico-tecnológica, en apoyo a la toma de decisiones estratégicas, tanto para el sector académico y productivo como para la sociedad en general, con el fin de incrementar la competitividad, productividad o de desarrollar proyectos de innovación.

4. Conclusiones

Un software libre de VT debe proveer su descarga completa y permitir la modificación de su código, de manera que los usuarios puedan aplicar y difundir mejoras. Esta flexibilidad permite además gestionar la información de manera personalizada, según cada necesidad.

Por otro lado, el software debe almacenar de forma centralizada la información, pero también permitir el trabajo colaborativo (facilitar el intercambio y comunicación de conocimientos entre todos los actores), brindar fácil y rápida graficación interactiva, generar reportes automatizados, análisis muestral (informes y mapas) y gestión de I+D+i. Para lograrlo, es necesario un motor de conocimiento semántico, que gestione fuentes heterogéneas (prensa, blogs, empresas, asociaciones, personas, foros, archivos en todos los formatos, patentes, artículos científicos, tesis doctorales, licitaciones, normativa, proyectos, informes institucionales, redes sociales, etc.), pero que a la vez discrimine la información innecesaria, para trabajar con precisión tanto la gestión del conocimiento y las capacidades de innovación, como el análisis de tendencias. Filtrar, buscar, clasificar, agregar comentarios y valoración (incorporando características sociales), exportar texto e imágenes y generar rápidamente resúmenes y textos completos personalizables son, por tanto, algunas de las funciones básicas que debe incorporar.

Al momento del análisis de tendencias, es importante considerar el tiempo, ya que los softwares eficaces comprenden rápidamente la literatura científica y tecnológica mediante algoritmos avanzados de minería de textos, y permiten aumentar la productividad y ahorrar mucho tiempo.

Para el análisis de datos, es necesario que la plataforma considere la normalización de entidades. Identidades de autores inventores y solicitantes muchas veces son escritas de manera distinta, por lo que sería ideal que el software los agrupe sistemáticamente y pueda reconocerlos en su totalidad, asimilando también las abreviaturas de una misma entidad. De lo contrario, el profesional tendrá que estandarizar manualmente los registros que no son reconocidos por el software o que están asociados desacertadamente (lo que constituye una gran inversión de tiempo).

En resumen, un buen programa permitirá la extracción precisa y rápida de información desde múltiples bases de datos (en diversos formatos y descargable a texto completo), mediante búsquedas avanzadas (combinación de campos plurilingüe) para la visualización gráfica e interactiva de contenidos, que facilite la elaboración y diseminación de alertas, boletines o informes (globales, evolutivos o de correlaciones). Otros aspectos relevantes son la extracción de estadísticas de explotación del sistema y la posibilidad de almacenar los datos en la nube, para poder acceder a ellos desde cualquier lugar o dispositivo, sin comprometer la privacidad y seguridad de los datos.

Finalmente, para adquirir una plataforma de vigilancia sistemática es primordial contar con un equipo que ayude a su implementación, diseño y uso. En este sentido, queda demostrada la reivindicación del rol del profesional de la información –en sectores de desempeño menos tradicionales–, que debe manejar modelos de gestión colaborativa de información, minería de datos, metadatos enlazados, altmétricas, curación de contenidos, vigilancia informacional, entre otros. Es el profesional de la información, entonces, el actor fundamental en la práctica efectiva de la vigilancia. Es quien recupera y ofrece, en poco tiempo, la información que se precisa.

Para desempeñarse como vigilantes tecnológicos, los profesionales de la información deben contar con competencias y habilidades técnicas propias de la profesión: manejo de herramientas de búsqueda y recuperación de información y gestión del conocimiento. Por lo tanto, este nuevo perfil de vigía científico y tecnológico presenta una oportunidad de especialización que abre la posibilidad de posicionarse como un asesor, consultor y experto gestor de información científica y tecnológica.

Debe crear alertas bibliográficas y tecnológicas a diversos actores, conocer y gestionar las plataformas y fuentes de información, gestionar la visibilidad e impacto de investigadores e inventores, realizar informes cienciométricos, y asesorar en temas legales (propiedad intelectual e industrial) respecto de los cuales juega un rol de propulsor de los derechos de autor.

Cualquier esfuerzo que se realice en investigación, innovación y emprendimiento amerita la difusión, aplicación y protección de los resultados, productos o servicios emergentes. Se trata de generar un conocimiento que ayude al desarrollo social y económico, actividades fundamentales para el progreso de una comunidad. Si bien muchos profesionales poseen la capacidad de generar conocimiento útil, no muchos saben aprovechar la información tecnológica o crear aplicaciones para su gestión, y es ahí donde radica aún el desafío.

Referencias

Arias Pérez, J., y Aristizábal Botero, C. (2011). El dato, la información, el conocimiento y su productividad en empresas del sector público de Medellín. Semestre Económico, 14(28), 95-109. https://doi.org/10.22395/seec.v14n28a6ez

Accart, J. (2001). Business intelligence: a new challenge for librarians? INSPEL: International Journal of Special Libraries, 35(2), 85-93. Recuperado de http://forge.fh-potsdam.de/~IFLA/INSPEL/01-2acje.pdf

Bailón-Moreno, R. (2003). Ingeniería del conocimiento y Vigilancia Tecnológica Aplicada a la Investigación en el Campo de los Tensioactivos. Desarrollo de un Modelo Cienciométrico Unificado (Tesis doctoral). Universidad de Granada. Recuperada de http://hdl.handle.net/10481/24728

Blázquez, M. (2016). Reflexiones y perspectivas sobre el futuro de la Documentación. SEDIC Blog. Recuperado de http://blog.sedic.es/2016/01/04/reflexiones-documentacion/

Berges-García, A. Meneses-Chaus, J., y Martínez-Ortega, J. (2016). Metodología para evaluar funciones y productos de vigilancia tecnológica e inteligencia competitiva (VT/IC) y su implementación a través de web. El Profesional de la Información, 25(1), 103-113. Recuperado de https://recyt.fecyt.es/index.php/EPI/article/view/epi.2016.ene.10/25853

Bucheli, V, y González, F. (2007). Herramienta informática para la vigilancia tecnológica VIGTECH. Revista Avances en Sistemas e Informática, 4(1), 117-126. Recuperado de http://www.redalyc.org/articulo.oa?id=133116856016

Caldera-Serrano, J., y Freire-Andino, R. (2016). Los metadatos asociados a la información audiovisual televisiva por “agentes externos” al servicio de documentación: validez, uso y posibilidades. Biblios, (62), 63-75. https://doi.org/10.5195/biblios.2016.285

Carrasco, H., Valverde, J., y Rivera, J. (2010). Sistema de vigilancia tecnológica de software libre. Revista Politécnica, 29(1), 101-105. Recuperado de https://revistapolitecnica.epn.edu.ec/ojs2/index.php/revista_politecnica2/article/view/291

Comai, A., Tena, J., y Vergara, J. (2006). Software para la vigilancia tecnológica de patentes: evaluación desde la perspectiva de los usuarios. El Profesional de la Información, 15(6), 452-458. Recuperado de http://eprints.rclis.org/9401/1/vol15_6.4.pdf

Echeverría, M. (2014). Acceso abierto y software libre. e-Ciencias de la Información, 4(2), 1-13. Recuperado de http://eprints.rclis.org/23696/1/4-2-2r.pdf

Fernández-Morales, M., y Chinchilla-Arley, R. (2013). Automatización de unidades de información: Matriz técnica para la evaluación de software libre. Revista Interamericana de Bibliotecología, 36(3), 207-219. Recuperado de http://eprints.rclis.org/21135/

González, K., Sánchez, J., y Caira, N. (2013). Herramientas Informativas para la Vigilancia Tecnológica en Diseños Curriculares de Universidades Públicas. GECONTEC: Revista Internacional de Gestión del Conocimiento y la Tecnología, 1(2), 19-31. Recuperado de https://upo.es/revistas/index.php/gecontec/article/viewFile/586/pdf_4

Hidalgo, A., y León, G. (2006). La importancia del conocimiento científico y tecnológico en el proceso innovador. Revista Madri+d, 39. Recuperado de: http://www.madrimasd.org/revista/revista39/tribuna/tribuna1.asp

Macías, Y., Guzmán, M, y Martínez, Y. (2009). Modelo de evaluación para software que emplean indicadores métricos en la vigilancia científico-tecnológica. Revista Cubana de Información en Ciencias de la Salud, 20(6), 125-140. Recuperado de http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1024-94352009001200003

Martínez, A. (2014). Modelo para la toma de decisiones sobre los contenidos de la Organización del Conocimiento en programas académicos de Bibliotecología, Documentación o Ciencia de la Información. Palabra Clave (La Plata), 3(2), 71-90. Recuperado de https://www.palabraclave.fahce.unlp.edu.ar/article/view/PCv3n2a01

Martínez, F., y Maynegra, R. (2010). Difusión de resultados de Vigilancia Tecnológica a través del gestor de contenidos Joomla!. Ciencias de la Información, 41(1), 61-65. Recuperado de http://hdl.handle.net/10760/20465

Martínez, F, y Maynegra, E. (2014). Evaluación de plataformas web para su implementación en el sistema de vigilancia tecnológica de la Consultoría Biomundi. Revista Cubana de Información en Ciencias de la Salud, 25(1), 99-109. Recuperado de http://scielo.sld.cu/scielo.php?pid=S2307-21132014000100007&script=sci_arttext

Michán, L., y Muñoz, I. (2013). Cienciometría para ciencias médicas: definiciones, aplicaciones y perspectivas. Investigación en Educación Médica, 2(6), 100-106. Recuperado de http://www.redalyc.org/articulo.oa?id=349733227006

Palop, F., y Vicente, J. M. (1999). Vigilancia Tecnológica e Inteligencia Competitiva. Su potencial para la empresa española. Recuperado de http://info.uned.es/experto-universitario-gestion-I-D/bibliografia/VigilanciaTecnologica_inteligencia%20competitiva.pdf

Porto, X. (2009). Del Centro de documentación a la Unidad de vigilancia tecnológica: el papel del documentalista en los sistemas de gestión de la innovación y de información empresarial. En XI Jornadas de Gestión de la Información: Servicios polivalentes, confluencia entre profesionales de archivo, biblioteca y documentación, Madrid, 2009-11-19/20. Recuperado de http://eprints.rclis.org/13877/1/XIJGI-Porto.pdf

Rey, L. (2009). Informe APEI sobre vigilancia tecnológica. Recuperado de http://eprints.rclis.org/14114/1/INFORME_APEI_04.pdf

Rodríguez, C. (2009). Sistema de Vigilancia Tecnológica y Agentes Inteligentes (Tesis de maestría). Universidad Complutense de Madrid, España. Recuperada de: http://eprints.ucm.es/9968/1/main.pdf

Tecuatl, G., Arriola, O., y Rosas, E. (2015). Aplicaciones informáticas y software libre como apoyo de la política digital en México. Sociedad, Estado y Territorio: revista de análisis científico-social, 4(2), 35-62. Recuperado de: http://eprints.rclis.org/28621/1/TECUATL%20QUECHOL%20et%20al.pdf

Upadhyay, N. (2015). Trends that will affect technology and resource decision in academic libraries in near future. En Actas del 4th International Symposium on Emerging Trends and Technologies in Libraries and Information Services (pp. 75-79). https://doi.org/10.1109/ETTLIS.2015.7048175

Vázquez, M. (2014). El futuro de las herramientas de procesamiento del lenguaje. Revista de los Estudios de Ciencias de la Información y de la Comunicación, (29). Recuperado de http://comein.uoc.edu/divulgacio/comein/es/numero29/articles/Article-Merce-Vazquez.html

Recepción: 28 mayo 2018

Aprobación: 16 agosto 2018

Publicación: 31 octubre 2018

HTML generado a partir de XML-JATS4R por