Apertura. Revista de innovación educativa‏
Vázquez González, Jiménez Macías, and Juárez Hernández: Construcción-validación del cuestionario sobre madurez de la gestión del conocimiento para la innovación educativa en universidades
Vol. 12, Num. 1, Año. 2020
Recibido: 2019 08 08
Aceptado: 2019 10 18



INTRODUCCIÓN

El enfoque socioeconómico actual coloca al conocimiento y a las tecnologías de la información y la comunicación como principios estructuradores de cambios en distintos sectores y procesos productivos. El éxito de las organizaciones se mide por el desarrollo de las capacidades de productividad, innovación y creación de valor estratégico, las cuales se logran en la medida en que sean aptos para crear, compartir y aplicar el saber (Alfonso, 2016; Bailey et al., 2017; Begoña, 2015; Jerónimo-Cano y Juárez-Hernández, 2018; Naranjo, González y Rodríguez, 2016; Pedraja, 2012).

En esa dinámica, las instituciones de educación superior (IES) tienen un lugar significativo por su condición generadora de conocimiento, lo que implica que diversas universidades de distintos países enfrenten un "proceso analítico de organización interna para mejorar la gestión de su capital intelectual" (Cricelli et al., 2018, p. 72) y, con ello, logren una transformación. Lo anterior es una cualidad imprescindible para que las IES evalúen y dirijan sus métodos organizacionales, así como el conocimiento producido para que innoven el currículo, los procesos y las prácticas educativas (Aguilar, Fortanell y García, 2012; Chacón, 2014; Cuevas, 2016; Naranjo et al., 2016; Rengifo-Millán, 2015; Sañudo, 2014).

En este sentido, a través de la gestión del conocimiento (GC) pueden originarse las condiciones que impulsen la creación, el almacenamiento y la transmisión del saber para mejorar su circulación dentro de las instituciones mediante el desarrollo de modelos, estrategias, sistemas, procesos, prácticas y métodos para crear, adquirir, identificar, codificar, transmitir, aplicar y proteger el conocimiento, y así acelerar los procesos de innovación (Aguilar et al., 2012; Cantón y Ferrero, 2016; Galvis y Sánchez, 2014; Sañudo, 2014).

La innovación es un proceso irregular en las instituciones, pues generalmente proviene de la idea de una persona o de un momento de inspiración, algo imposible de sistematizar (Velasco y Zamanillo, 2008). Esto puede deberse a que las prácticas y los resultados de la innovación se ponen en marcha de manera parcial y no llegan a institucionalizarse (Minakata, 2009).

Por esta razón, la innovación debe articularse de modo sistémico y sistemático, con la gestión escolar y sus dimensiones organizacional y pedagógica-curricular para que impacte a toda la institución, ya que a través de ella se busca un cambio relacionado con un objetivo previamente determinado que implica una situación original y otra distinta que, en lo individual, se interiorice y, en lo colectivo, se convierta en normalidad (Aguilar et al., 2012; Barraza, 2006; Guzmán et al., 2015; Laurencio y Farfán, 2016; Matas, Tójar y Serrano, 2004; Ortega et al., 2007).

Implementar la GC para la innovación educativa en las instituciones es un proceso que implica el paso de un estado a otro, los cuales se determinan con base en el análisis de la eficacia de las actividades, prácticas y métodos organizativos en el aprovechamiento de los activos del saber. El estado de efectividad que resulta se conoce como el nivel de madurez de la GC (De Freitas, 2017), lo que hace posible diseñar una estrategia macro y favorecer el cumplimiento de los objetivos estratégicos.

Para evaluar este nivel, se han establecido modelos de madurez de GC, los cuales se comprenden como esquemas de reflexión que miden la GC de una organización desde un enfoque de macro-proceso estratégico, que permite valorar y comparar las iniciativas en función del conocimiento que se crea dentro de la organización y, con esto, se determina el nivel de madurez en que se encuentra (De Freitas, 2017; León y Ponjuán, 2011; Montañez y Lis, 2015; Montañez y Lis 2017).

A pesar de la relevancia de la GC y la existencia de modelos generales para medir su madurez, no existen propuestas instrumentales específicas para evaluar la GC generada por profesores, investigadores, cuerpos académicos o redes interinstitucionales, en función de la innovación educativa en las IES. No obstante, de los estudios analizados que abordan la GC en IES, consideramos las propuestas de Ansuattigui, Caulliraux-Pithon y Fernandes (2013), De Freitas (2017), Demching (2015) y Montañez y Lis (2015) por los siguientes aspectos generales: selección del modelo de madurez con base en el análisis comparativo; actualización del modelo de madurez al incluir dimensiones o áreas clave; adaptación del instrumento al contexto educativo del nivel superior, así como el arreglo y la construcción de ítems. En particular, de los autores señalados, Ansuattigui, Caulliraux-Pithon y Fernandes (2013) se enfocan en la implementación de estrategias o métodos de GC desde la perspectiva de acción; por su parte, los estudios de De Freitas (2017), Demching (2015) y Montañez y Lis (2015) se orientan a las prácticas y actividades de GC desde la perspectiva de gerencia.

De manera general, los estudios antes mencionados evalúan el nivel de madurez de la GC en IES a partir de prácticas, actividades y estrategias o métodos de GC, desde las perspectivas de gerencia y acción, con especial atención en lo normativo y lo descriptivo, respectivamente. Para contar con una comprensión puntual del nivel de madurez de la GC respecto a la innovación educativa, partimos de un enfoque integrador desde la gestión escolar que articula tanto lo organizacional como lo pedagógico-curricular, vincula al sistema educacional, la institución y la acción pedagógica, y orienta el conocimiento tácito y explícito en torno a la educación, de profesores e investigadores considerados de manera individual o conformados en grupos de investigación y redes interinstitucionales.

Lo anterior resulta vital porque, como refiere Sañudo (2014), el conocimiento educativo es abundante y heterogéneo en México, pero con poca incidencia en la mejora de la educación, por lo cual hacemos hincapié en acompañar el proceso y los resultados de la investigación con estrategias organizacionales y métodos de GC que aseguren su uso por parte de los beneficiarios, sean estos directos o indirectos.

Asimismo, los trabajos de Gómez-Vargas y García (2015) en Colombia, Magaña et al. (2016) en México y Rodríguez-Ponce (2016) en Chile, sugieren incrementar la cantidad de estudios acerca de la estructuración organizacional de programas, procesos y estrategias de GC para que se puedan integrar aspectos que se trabajan de forma independiente o separada, dentro de los cuales podemos considerar las áreas clave identificadas, así como los factores de éxito de la GC en IES expuestos por De Freitas y Yáber (2017), y con esto fortalecer una cultura basada en la GC.

De manera clara, especificamos que son nulas las propuestas instrumentales para evaluar la madurez de la GC tácito y explícito en torno a la educación, del profesorado y grupos de investigación. Por esta razón, es necesario contar con un instrumento especializado que permita determinar el nivel de madurez desde un enfoque integrador de lo organizacional y lo pedagógico-curricular de la gestión escolar. Esto proporcionará las bases para el diseño de estrategias organizacionales de GC educativo, ad hoc al contexto de las IES.

Al considerar lo anterior, nuestro estudio se enfocó en las siguientes metas: diseñar un cuestionario pertinente y práctico que determine el nivel de madurez de la GC en torno a la educación para impulsar la innovación en IES desde un enfoque integrador de la gestión escolar, revisar y mejorar el instrumento con base en el análisis de expertos, someter a juicio de expertos para analizar la validez de contenido, y aplicarlo a un grupo piloto para analizar su asequibilidad y efectuar un análisis inicial de consistencia interna.

METODOLOGÍA

Tipo de estudio

Realizamos un estudio instrumental, que consiste en el "desarrollo de pruebas y aparatos, incluyendo tanto el diseño (o adaptación) como el estudio de las propiedades psicométricas de los mismos" (Montero y León, 2007, pp. 855-856).

Procedimiento

El estudio comprendió las siguientes fases:

  • 1) Revisión teórica y análisis de instrumentos afines al cuestionario que se construye. En esta primera fase, analizamos 14 estudios e instrumentos afines a la madurez de la GC que evalúan constructos y dimensiones o áreas clave, así como actividades, prácticas y estrategias o métodos, de los cuales nueve conciernen al contexto de las IES (ver Tabla 1), y el resto, a organizaciones del sector empresarial (ver Tabla 2). Con este análisis, reconocimos temas e instrumentos prioritarios, categorías relevantes, dimensiones e ítems útiles para ser retomados, así como áreas débiles en su evaluación para ser consideradas.

  • 2) Diseño del instrumento y revisión por expertos. Durante esta fase, y producto del análisis efectuado, seleccionamos los estudios e instrumentos de Ansuattigui et al. (2013), De Freitas (2017), Demching (2015), Donate y Guadamillas (2010), Gómez-Vargas y García (2015), Liberona y Ruiz (2013), Luna et al. (2017), Montañez y Liz (2015), Mul et al. (2013), Pedraja-Rejas y Rodríguez-Ponce (2008), Rodríguez-Ponce (2016), Teah et al. (2006), y Ureña y Villalobos (2011). A partir de este análisis, elegimos dimensiones e ítems para incluirlos en el instrumento, y cuidamos que estos estuvieran argumentados teóricamente y ad hoc a las características y necesidades de la temática. Es importante aclarar que, para la selección de estos estudios, ponderamos que denotaran algún tipo de validación, como se muestra en las Tablas 1 y 2. El cuestionario fue diseñado como una escala de frecuencia tipo Likert, compuesto por una categoría, siete dimensiones y 49 ítems (ver Tabla 3).

Tabla 1

Estudios afines a la madurez de la gestión del conocimiento en instituciones de educación superior

Estudios y autores Dimensiones e ítems Adaptado de Propiedad psicométrica
analizada
Development and application of a
general knowledge management
maturity model;
Teah, Pee & Kankan-halli (2006)
Personas-organización,
procesos y tecnología
(27 ítems)
Adaptado y basado
en varios autores:
Knowledge Journey,
KPQM y KMCA
Validación por grupo
de enfoque
Nivel de madurez en sistemas de
gestión del conocimiento en
instituciones de educación superior: un
estudio de caso desde un enfoque
holístico; De Freitas (2017)
Estratega de GC,
personas, procesos,
tecnologías, redes y
gestión de la información
(35 ítems)
Pee y Kankanhalli (2009);
Chu et al. (2011)
Validación de facie
Knowledge management capability
level assessment of the higher
education institutions: Case study from
Mongolia; Demching (2015)
Cultura de intercambio,
lecciones aprendidas,
experticia, repositorios y
datos (14 ítems)
Kullkarni y St. Louis (2003);
Kullkarni y Freeze (2004)
Validación por grupo
de enfoque
Medición de la madurez de la gestión
del conocimiento en la escuela de
ciencias básicas, tecnología e
ingeniería de la UNAD;
Montañez-Carrillo y Lis-Gutiérrez (2015)
Estrategia de GC,
personas-organización,
procesos y tecnología
(37 ítems)
G-KMMM de
Teah et al. (2006)
Validación por
expertos
Prácticas de gestión del conocimiento
en una institución pública de investigación.
El caso del centro tecnológico
del ejército en Brasil;
Ansuattigui et al. (2013)
Personas, procesos y
sistemas
(20 ítems)
Organizational
Knowledge
Assessment
Validación sin dato
Estudio exploratorio del impacto de la
gestión del conocimiento en la
calidad de las universidades;
Rodríguez-Ponce (2016)
Crear, compartir y aplicar
conocimiento (14 ítems)
Rodríguez Ponce (2007) Confiabilidad
Factores influyentes de la gestión
del conocimiento en el contexto de la
investigación universitaria;
Gómez-Vargas y García (2015)
Personas, procesos,
contenidos y tecnologías
(19 ítems)
Centre Européen
de Normalisation
(2004)
Validación por experto
y prueba piloto
Gestión del conocimiento en
universidades públicas mexicanas;
Luna, Reyes y Jiménez (2017)
Conocimiento como
factor estratégico,
dirección estratégica del
conocimiento y capital
intelectual (ítems: sin
dato)
Validación de
contenido por juicio de
expertos, validación
de constructo y
confiabilidad
Gestión del conocimiento en institutos
universitarios de tecnología;
Ureña y Villalobos (2011)
Generación, conversión
y estrategias para
la transferencia del
conocimiento
(27 ítems)
Ureña (2009)
citado en
Ureña y Villalobos (2011)
Validación de
contenido por
juicio de expertos y
confiabilidad

[i] Fuente: elaboración propia.

Tabla 2

Estudios afines a la madurez de la gestión del conocimiento en el sector empresarial

Estudios y autores Dimensiones e ítems Adaptado de Propiedad psicométrica
Aproximación a la medición
de la gestión del conocimiento
empresarial;
Bernal, Turriago y Sierra (2010)
Gestión de relevancia del
conocimiento (GRC): apropiación,
aplicación y generación, e índice
de inteligencia organizacional
(IMIO): memoria, capacidades,
cultura y perspectiva
(12 ítems para GRC y
42 para IMIO)
IMIO tomada de
Arboníes y Aldázabal
(2005)
Validación sin dato
The role of knowledge-oriented
leadership in knowledge
management practices and
innovation;
Donate y Sánchez (2015)
Prácticas de creación,
almacenamiento, transferencias,
aplicación del conocimiento,
liderazgo, innovación y gasto en
I+D
(39 ítems)
Zahra y Das (1993);
Zahra y Bogner (1999)
citados en
Donate y Sánchez (2015)
Validación sin dato
Propuesta de un instrumento
para conocer las actividades
de gestión del conocimiento
y los factores organizativos
que la influyen;
Mul, Mercado y Ojeda (2013)
Gestión del conocimiento, cultura
organizacional, liderazgo y
tecnologías
(94 ítems)
Validación por
cinco expertos y
confiabilidad
Estilos de liderazgo, gestión
del conocimiento y diseño
de la estrategia: un estudio
empírico en pequeñas y
medias empresas;
Pedraja-Rejas y Rodríguez-Ponce (2008)
Liderazgo y gestión del
conocimiento: estilo
transformacional; estilo
transaccional; crear, compartir y
aplicar conocimiento;
diseñar la estrategia
(26 ítems)
Adaptado y basado en
varios autores
Confiabilidad
Gestión del conocimiento
organizativo, innovación
tecnológica y resultados.
Una investigación empírica;
Donate y Guadamillas (2010)
Prácticas, exploración y
explotación del conocimiento,
métodos de protección,
innovación productos, innovación
procesos, resultado económico
(48 ítems)
Confiabilidad

[i] Fuente: elaboración propia.

Tabla 3

Estructura inicial del cuestionario

Categoría Dimensiones o áreas clave Número de ítems
Madurez de la gestión del
conocimiento para el impulso
de la innovación educativa
Dimensión 1: Establecimiento de la estrategia 5
Dimensión 2: Sostenimiento de la estrategia 5
Dimensión 3: Implementación de la estrategia 5
Dimensión 4: Generación de condiciones para el intercambio y la creación de conocimiento 5
Dimensión 5: Formalización de procesos del conocimiento 5
Dimensión 6: Apoyo tecnológico 5
Dimensión 7: Estrategias o métodos de gestión del conocimiento implementadas 19

[i] Fuente: elaboración propia.

Después de su construcción, el instrumento se sometió a revisión de siete expertos (ver Tabla 4) con el objetivo de que verificaran la categoría y las dimensiones propuestas, así como los ítems que las integran, su relevancia y pertinencia con las dimensiones y los aspectos relacionados con las instrucciones y la redacción del cuestionario. Para la caracterización del perfil de los expertos, recurrimos al instrumento de datos personales (CIFE, 2017), cuya meta es recoger la información de los siguientes aspectos: sexo, función, grado académico, experiencia profesional y laboral, actividad de investigación o producción académica, entre otros.

Tabla 4

Caracterización de los expertos y jueces expertos

Variable Expertos Jueces expertos
Sexo Hombres: 71% Hombres 53%
Mujeres: 29% Mujeres 47%
Roles Investigador: 14% Profesor investigador: 87%
Docente: 71% Profesor asignatura: 13%
Administrativo: 14%
Último nivel de estudio Doctorado: 14% Doctorado: 73%
Maestría: 86% Maestría: 27%
Áreas de experiencia profesional Docencia: 100% Docencia: 100%
Procesos psicológicos: 43% Procesos psicológicos: 20%
Procesos sociales: 14% Procesos sociales: 33%
Procesos organizacionales: 86% Procesos organizacionales: 40%
Procesos estadísticos: 29% Formación: 60%
Diseño de instrumentos: 100% Diseño de instrumentos: 66%
Número de años de experiencia profesional (media) 11 20
Número de años de experiencia docente
investigativa (media)
9 15
Número de artículos publicados en el área (media) 5 15
Número de ponencias presentadas
en el área (media)
4 15
Número de libros publicados en el área (media) 1 2
Número de capítulos de libro publicados en las
áreas de experiencia profesional
6
Experiencia en la revisión, diseño o validación de
un determinado instrumento de investigación
100% 100%

[i] Fuente: Elaboración propia.

  • 3) Estudio de la validez de contenido. Para determinar la validez de contenido del instrumento, utilizamos el juicio de expertos. El concepto de validez de contenido o validez de lógica permite identificar el grado de una medida representativa de los contenidos, así como el alcance de cada elemento o dimensión del constructo (Ruiz, 2002). En este estudio efectuamos un juicio de expertos con un enfoque cuali-cuantitativo respecto de los criterios de pertinencia y redacción. El juicio fue constituido por 15 jueces (ver Tabla 4), y en su selección seguimos criterios formales y variables relevantes (Juárez-Hernández y Tobón, 2018), como docentes e investigadores de educación superior con conocimiento y experiencia en la temática, grado académico de maestría o doctorado, publicaciones, así como experiencia en el diseño y la validación de instrumentos.

    Es importante señalar que enviamos invitación a 24 jueces nacionales y cuatro extranjeros mediante correo electrónico, al cual respondieron 16 y tres, respectivamente. No obstante, de los nacionales, dos no evaluaron el instrumento dentro del plazo establecido; además, descartamos dos registros, pues uno contenía errores de consistencia en la información profesional, y el otro evaluó el instrumento desde un enfoque distinto al planteado en la investigación.

    Como indicamos, el juicio de expertos tuvo un enfoque de evaluación cuali-cuantitativo. En cuanto a la evaluación cualitativa, le pedimos a cada juez sugerencias para eliminar, mejorar o agregar ítems o preguntas, así como aspectos de redacción. Para la evaluación cuantitativa otorgamos una escala politómica denominada escala de jueces expertos, la cual varía de cero a cuatro, y mediante la cual cada juez concedió un puntaje a la redacción y otro a la pertinencia.

    Una vez realizada esta evaluación, empleamos el coeficiente de validez de contenido V de Aiken para el análisis, de acuerdo con el modelo propuesto por Penfield y Giacobbi (2004), y consideramos como valor mínimo 0.80 para la aceptación de un ítem como válido (Bulger & Housner, 2007; Penfield y Giacobbi, 2004). Con los resultados de las evaluaciones anteriores, el cuestionario se ajustó y mejoró.

  • 4) Aplicación de la prueba con un grupo piloto. El instrumento se aplicó a un grupo piloto conformado por 15 profesores de educación superior (ver Tabla 5). Esta fase tuvo dos objetivos: uno, analizar mediante una encuesta el grado de satisfacción del instrumento, la comprensión de las instrucciones e ítems, así como la relevancia de las preguntas evaluadas a través del cuestionario de satisfacción con el instrumento (CIFE, 2017); específicamente para la satisfacción, integramos aspectos relacionados con la amenidad, extensión y tiempo para contestar el instrumento; el rubro de comprensión de instrucciones e ítems corresponde a la claridad de la redacción empleada, y en el de relevancia se precisa si el ítem contribuye a evaluar el concepto. El segundo objetivo fue efectuar un análisis inicial y con un fin orientativo de consistencia interna mediante el coeficiente alfa de Cronbach (Cronbach, 1951). Consideramos como regla general que el valor del coeficiente debe estar sobre 0.80 (Quero, 2010).

Tabla 5

Datos del grupo piloto

Variable Datos
Sexo Mujeres: 6 (40%); hombres: 9 (60%)
Roles Profesor investigador: 13 (87%);
profesor de asignatura: 2 (33%)
Último nivel de
estudio
Doctorado: 8 (53%);
maestría: 7 (47%)
Áreas de
formación
académica
Pedagogía: 2;
ciencias de la computación: 2;
educación: 3;
estadística: 1;
tecnologías de información: 2;
antropología: 1;
trabajo social: 1;
psicología: 2;
organizaciones: 1

[i] Fuente: elaboración propia.

Aspectos éticos

Para el diseño y la validación del cuestionario, respetamos los siguientes criterios éticos de la investigación: referimos los estudios tomados en cuenta para el diseño del cuestionario y la actualización del modelo general de madurez con la inclusión del área clave; estrategias o métodos de la GC; para el análisis de expertos, evaluación de jueces y aplicación del grupo piloto, les solicitamos por escrito su participación, respectivamente, y les compartimos el enlace una vez que recibimos la aceptación; y aplicamos la protección de los datos personales.

RESULTADOS

A partir de la revisión y el análisis de antecedentes instrumentales, identificamos los criterios relevantes para la construcción del cuestionario, así como aspectos generales, dimensiones e ítems a incluir. En este sentido, de los estudios e instrumentos seleccionados que pueden analizar la GC en instituciones, identificamos áreas clave como estrategia organizacional (planeación y dirección, liderazgo, trabajo en equipo y comunicación), personas-organización (capacidades, cultura y perspectiva interna), procesos del conocimiento (crear, adquirir, almacenar, transferir, aplicar y proteger), tecnologías (sistemas y redes), y gestión de la información (datos y contenidos).

Los procesos propios de la gestión que no se consideran en los instrumentos, pero que forman parte de la GC, son: planificación, evaluación, coordinación, control y análisis para el aseguramiento de las actividades propias de gestión de los procesos del conocimiento, y estrategias o métodos de GC, que corresponden al diseño estratégico de procesos y prácticas del conocimiento para el logro de objetivos.

A partir de la revisión teórica, reconocimos cinco áreas clave de la GC: 1) personas-organización, que representa las condiciones organizacionales para que las personas intercambien conocimiento; 2) procesos del conocimiento, que se refieren a las actividades sociales o tecnológicas que favorecen el desarrollo del saber; 3) tecnologías, como facilitadoras en el intercambio de información, habilidades y recursos que aceleran el ciclo del conocimiento (Teah et al., 2006); 4) estrategia organizacional, en la que se alinean las iniciativas y los procesos de GC con los objetivos de la institución (De Freitas, 2017; Demching 2015; Montañez-Carrillo y Lis-Gutiérrez, 2015); 5) los métodos, que corresponden al diseño estratégico de los procesos del conocimiento de la organización para el logro de los objetivos (Ansuattigui et al. , 2013; Donate y Guadamillas, 2010; Ureña y Villalobos, 2011), incorporados y constituidos por el nivel organizacional y pedagógico-curricular, y las tipologías del conocimiento: explotación y exploración, de Vázquez-González y Jiménez-Macías (2018).

Para la elaboración de los ítems de GC adecuados al enfoque de la innovación educativa en IES, analizamos los cuestionarios y estudios anteriores, más los de Bernal et al. (2010), Donate y Sánchez (2015), Gómez-Vargas y García (2015), Liberona y Ruiz (2013), Luna et al. (2017), Mul et al. (2013), Pedraja-Rejas y Rodríguez-Ponce (2008) y Rodríguez-Ponce (2016).

Después de la construcción del instrumento, lo sometimos a la revisión de expertos. Esta fase permitió mejorar distintos aspectos, como las dimensiones y los ítems, la presentación, los datos generales y las instrucciones. Respecto a las dimensiones, agrupamos las tres primeras, ya que pertenecen a la estrategia organizacional de GC; de los ítems, mejoramos la redacción del 70% de estos. Para la presentación, sintetizamos el mensaje y puntualizamos el público al que se dirige; en los datos generales, redefinimos los rangos para edad y antigüedad; asimismo, redujimos el número de actividades de los participantes en función de la precisión del sector al que se orienta; y en las instrucciones, mejoramos la redacción.

A partir de las modificaciones de los últimos dos aspectos, ajustamos la estructura del cuestionario y de los ítems. Para la dimensión estrategia organizacional, integramos diez ítems en cuatro, por afinidad. Para la dimensión personas-organización, eliminamos un ítem por estar considerado en el área antecedente; y disgregamos cinco ítems de uno que contenía aspectos relacionados con intercambio, creación, formación y colaboración. Para procesos del conocimiento, separamos tres ítems por contener varios aspectos cada uno: conocimientos y habilidades; buenas prácticas, lecciones aprendidas, historias de éxito y eficacia; usos autorizados y protección del conocimiento, en ese orden.

Para la dimensión tecnologías, disgregamos dos ítems, ya que contenían políticas y uso de herramientas internas y externas, e infraestructura y sistemas, respectivamente. Por último, en la dimensión estrategias o métodos de GC, integramos cuatro ítems debido a su afinidad respecto al tema de entornos virtuales; también, eliminamos uno acerca del monitoreo de la GC, el cual consideramos en la estrategia organizacional. En la Tabla 6, columna A, mostramos la estructura del cuestionario a partir del análisis de expertos.

Tabla 6

Estructura del cuestionario a partir del A) análisis de expertos, B) juicio de expertos y C) versión final

Dimensiones A) Número de ítems B) Número de ítems C) Número de ítems
Dimensión 1: Estrategia organizacional 10 10 9
Dimensión 2: Personas-organización 8 7 7
Dimensión 3: Procesos del conocimiento 12 10 9
Dimensión 4: Tecnología 8 8 8
Dimensión 5: Estrategias de gestión del conocimiento
para el impulso de la innovación en IES
14, más uno de
tipo abierto
14, más uno de
tipo abierto
14, más uno de
tipo abierto
Total 53 50 48

[i] Fuente: elaboración propia.

Juicio de expertos

Una vez realizadas las mejoras señaladas por los expertos al cuestionario, lo sometimos a juicio de expertos. La evaluación cualitativa nos permitió mejorar los aspectos de presentación, datos generales e ítems. En el caso de la presentación, antepusimos al objetivo del instrumento la importancia de la temática, y agregamos una definición breve de esta; respecto a los datos generales, añadimos dos campos: institución del participante y país. En cuanto a los ítems, las mejoras cualitativas se mencionan por área clave en la Tabla 7.

Tabla 7

Mejora de ítems a partir del juicio de expertos

Dimensiones Item Mejora
Dimensión 1: Estrategia organizacional 1, 2 y 3 Redacción
Dimensión 2: Personas-organización 12
17
18
13 y 14
Redacción
Redacción y se agregó ejemplo
Redacción y se agregó ejemplo
Afinidad. Se unieron pues pertenecen a la
creación del conocimiento
Dimensión 3: Procesos del conocimiento 22, 23 y 24

20, 21 y 29
Afinidad. Se unieron a una forma o medio de
registro del conocimiento
Redacción
Dimensión 4: Tecnología 32, 33 y 34
36
Cambio de verbo
Se agregó ejemplo
Dimensión 5: Estrategias de gestión del conocimiento
para el impulso de la innovación en IES
39 y 46
41
Cambio de verbo
Se agregó ejemplo

[i] Fuente: elaboración propia.

En la Tabla 7 se observa que, para el área clave estrategia organizacional, mejoramos la redacción de los ítems 1, 2 y 3; para personas-organización, ajustamos la redacción de los ítems 12, 17 y 18; para estos dos últimos, además, agregamos ejemplos; asimismo, unimos los ítems 13 y 14, ya que abordan el mismo aspecto de creación del conocimiento; en procesos del conocimiento, integramos los ítems 22, 23 y 24, en virtud de que se refieren a una forma o medio de registro del conocimiento, y mejoramos la redacción de los ítems 20, 21 y 29; de tecnologías, cambiamos los verbos de los ítems 32, 33 y 34, además de agregar un ejemplo en el ítem 36; finalmente, del área estrategias o métodos de GC, cambiamos el verbo de los ítems 39 y 46, además de colocar un ejemplo en el ítem 41.

Por su parte, el análisis de la evaluación cuantitativa reveló la validez de contenido de los ítems en los criterios de pertinencia y redacción (V de Aiken>0.80); en relación con esto, observamos que más del 80% de los ítems presentan un valor en la V de Aiken mayor de 0.90, y solo un ítem reporta un valor cercano al mínimo establecido (ítem 2) (ver Tabla 8). Esto último concuerda con la evaluación cualitativa, en la que se señalaron mejoras en la revisión y ajuste de la redacción, así como la integración de los ítems 13 y 14, así como 22, 23 y 24, lo cual recaba información en el mismo sentido del instrumento y reduce su extensión (ver Tabla 6, columna B).

Tabla 8

Índice de validez de contenido (V de Aiken) por ítem para los criterios de pertinencia y redacción

Dimensiones Número de
ítem
Pertinencia Redacción
Estrategia
organizacional
1 0.87 0.87
2 0.87 0.83
3 0.87 0.87
4 0.87 0.88
5 0.87 0.88
6 0.87 0.88
7 0.87 0.88
8 0.87 0.88
9 0.87 0.88
10 0.87 0.88
Personas-
organización
11 0.95 0.92
12 0.95 0.90
13 0.93 0.92
14 0.93 0.92
15 0.95 0.92
16 0.95 0.92
17 0.93 0.92
18 0.85 0.92
Procesos del
conocimiento
19 0.95 0.98
20 0.95 0.97
21 0.95 0.97
22 0.95 0.93
23 0.95 0.93
24 0.95 0.93
25 0.95 0.98
26 0.95 0.98
27 0.95 0.98
28 0.95 0.98
29 0.95 0.97
30 0.95 0.98
Tecnologías 31 0.93 0.97
32 0.93 0.92
33 0.93 0.95
34 0.93 0.95
35 0.93 0.97
36 0.93 0.95
37 0.93 0.97
38 0.93 0.95
Estrategias o
métodos de
gestión del
conocimiento
para impulsar
la innovación
educativa en
IES
39 0.92 0.90
40 0.92 0.95
41 0.92 0.93
42 0.92 0.95
43 0.92 0.95
44 0.92 0.95
45 0.92 0.95
46 0.92 0.93
47 0.92 0.95
48 0.92 0.95
49 0.92 0.95
50 0.92 0.95
51 0.92 0.95
52 0.92 0.95
53 0.92 0.95

[i] Fuente: elaboración propia.

Grupo piloto

La percepción de los docentes mostró una ponderación adecuada acerca de la comprensión de las instrucciones e ítems, así como la relevancia de las preguntas. De manera general, se indicó un buen grado de satisfacción con el instrumento (ver Tabla 9). Respecto al análisis de consistencia interna, presentó un nivel óptimo (alfa de Cronbach: 0.941).

Tabla 9

Nivel de satisfacción del grupo piloto con el instrumento

Preguntas Respuestas
Grado de
comprensión de las
instrucciones
Excelente (4) 27%;
Bueno (5) 33%;
Aceptable (5) 33%;
Regular (1) 7%;
Malo (0)
Grado de
comprensión de las
preguntas o ítems
Excelente (0);
Bueno (9) 60%;
Aceptable (4) 27%;
Regular (2) 13%;
Malo (0)
Grado de
satisfacción con el
instrumento
Excelente (2) 13%;
Bueno (5) 33%;
Aceptable (6) 40%;
Regular (2) 13%;
Malo (0)
Grado de
relevancia de las
preguntas
Excelente (4) 27%;
Bueno (6) 40%;
Aceptable (4) 27%;
Regular (1) 7%;
Malo (0)

[i] Fuente: elaboración propia.

Finalmente, a partir de las fases descritas (juicio de expertos y grupo piloto), eliminamos el ítem 1, correspondiente a la dimensión estrategia organizacional; así como el 27, de procesos del conocimiento; lo anterior debido a que estaban planteados de manera general, y ya estaban considerados en otros ítems de las mismas escalas (ver Tabla 6, columna C).

DISCUSIÓN

En este estudio abordamos como constructo la madurez de la GC para el impulso de la innovación educativa, la cual consiste en la eficacia de la capacidad organizacional para generar las condiciones que impulsen la creación, el almacenamiento y la transmisión del saber a fin de que circule mejor dentro de las instituciones mediante el desarrollo de modelos, estrategias, sistemas, procesos, prácticas y métodos para crear, adquirir, identificar, codificar, transmitir, aplicar y proteger el conocimiento, y así acelerar los procesos de innovación (Aguilar et al., 2012; Cantón y Ferrero, 2016; Galvis y Sánchez, 2014; Sañudo, 2014).

Determinar el nivel de madurez de la GC permitirá a las IES afrontar la transformación educativa de acuerdo con los objetivos estratégicos, las metas institucionales y las directrices de la sociedad actual, mediante la aceleración de procesos de innovación (Aguilar et al., 2012; Cricelli et al. , 2018; Cuevas, 2016; Chacón, 2014; Naranjo et al., 2016; Rengifo-Millán, 2015; Sañudo, 2014) y la implementación de iniciativas para gestionar el saber con pertinencia (Ortegón, Lasso y Steil, 2016).

En otras palabras, las IES deben definir qué hacer con el conocimiento tácito y explícito acerca de la educación, tanto de sus profesores e investigadores como de los grupos de investigación y redes interinstitucionales; asimismo, cómo ponerlo en práctica para la mejora efectiva del comportamiento organizacional (Cantón y Ferrero, 2016) y la innovación educativa. De no hacerlo, habrá una repercusión negativa en la incidencia de la mejora educativa, ya que se cuestiona el impacto y el uso de los resultados de la investigación, sumados a la política, el objeto, el método y la difusión que vuelven compleja la toma de decisiones y la realización de cambios significativos en los procesos y las prácticas educativas (Sañudo, 2014).

Para evaluar el nivel de madurez de la GC organizacional, examinamos distintos cuestionarios, pero ninguno específico para el constructo que estudiamos, ya que los instrumentos seleccionados analizan actividades, prácticas y estrategias por separado, con especial atención en la perspectiva, ya sea de negocio, gerencia o acción de la GC. De igual modo, algunos estudios se orientan particularmente a la descripción de las características de la organización en un nivel de madurez o hacia lo normativo, es decir, las prácticas y estrategias más empleadas.

Por consiguiente, la propuesta de esta investigación consiste en la construcción y validación de un cuestionario que determine el nivel de madurez de la GC tácito y explícito acerca de la educación, tanto de profesores e investigadores, considerados en lo individual o conformados en grupos de investigación o redes interinstitucionales, para impulsar la innovación educativa en IES, desde las perspectivas de gerencia y acción, y los aspectos descriptivo y normativo, es decir, en función del estado de madurez en que se encuentra y las estrategias de GC que ya implementan para apoyar los procesos de innovación educativa, estas últimas clasificadas en subprocesos de exploración y explotación del conocimiento, y los ámbitos de influencia organizacional y pedagógico-curricular de la gestión escolar. Lo anterior proporcionará las bases para el diseño de una estrategia organizacional de GC ad hoc al contexto de las IES.

Con la revisión teórica, reconocimos cinco áreas clave de la GC: 1) personas-organización, que representa las condiciones organizacionales para que las personas intercambien conocimiento; 2) procesos del conocimiento, que se refieren a las actividades sociales o tecnológicas que favorecen el desarrollo del saber; 3) tecnologías, como facilitadoras en el intercambio de información, habilidades y recursos que aceleran el ciclo del conocimiento (Teah et al., 2006); 4) estrategia organizacional, en la que se alinean las iniciativas y los procesos de GC con los objetivos de la institución (De Freitas, 2017; Demching 2015; Montañez y Lis, 2015); 5) los métodos, que corresponden al diseño estratégico de los procesos del conocimiento de la organización para el logro de los objetivos (Ansuattigui et al., 2013; Donate y Guadamillas, 2010; Ureña y Villalobos, 2011, incorporadas y constituidas por el nivel organizacional y pedagógico-curricular, y las tipologías del conocimiento: explotación y exploración, de Vázquez-González y Jiménez-Macías (2018).

Para la elaboración de los ítems de GC adecuados al enfoque de la innovación educativa en IES, analizamos los cuestionarios y estudios anteriores, más los de Bernal et al. (2010), Donate y Sánchez (2015), Gómez-Vargas y García (2015), Liberona y Ruiz (2013), Luna et al. (2017), Mul et al. (2013), Pedraja-Rejas y Rodríguez-Ponce (2008) y Rodríguez-Ponce (2016).

Por lo anterior, al tomar elementos de otros estudios, es necesaria la validación de la construcción o conjunción de estos al constructo que se evalúa. Por lo tanto, trazamos un esquema metodológico constituido por fases seriadas que permitiera aprobar el instrumento y verificar su asequibilidad a la población objetivo. Al respecto, la revisión de expertos o validación de facie tiene como propósito la verificación de los ítems pertenecientes al constructo, su relevancia, la forma en la que fueron elaborados, la redacción y comprensión (Kerlinger y Lee, 2002).

Para asegurar el proceso, seleccionamos expertos por su perfil y trayectoria profesional, así como la experiencia en el diseño de instrumentos. Esta elección constituye un elemento esencial en la revisión o valoración de un instrumento (Blasco, López y Mengual, 2010; Cabero-Almenara e Infante-Moro, 2014; Juárez-Hernández y Tobón, 2018). Lo anterior se constata en las observaciones y sugerencias propuestas, las cuales proporcionaron una mejora significativa de distintos aspectos del cuestionario, por ejemplo, la sintaxis y redacción de la presentación, las instrucciones y los ítems, mayor precisión en los datos de información personal de los participantes y la selección de verbos para algunos ítems.

Esto último implicó en algunos casos integrar varios ítems por afinidad, disgregar otros por contener varios elementos, y eliminar ítems que considerábamos en otra área clave. A partir de estas mejoras al cuestionario, reorganizamos las dimensiones e ítems en cada una de ellas.

Para garantizar la idoneidad del instrumento, planteamos dos criterios: confiablidad y validez (González-Ortega, 2008). Como indicamos, la vía para el análisis de validez de contenido es el juicio de expertos (Escobar-Pérez y Cuervo-Martínez, 2008). En este sentido, para el juicio de expertos efectuado, consideramos distintos aspectos metodológicos de relevancia. El primero de estos fue la selección y el número de expertos, el cual es importante en la evaluación de un instrumento (Juárez-Hernández y Tobón, 2018). La selección se basó en criterios formales que dan cuenta de la experiencia en el área y trayectoria, y que son vitales en la construcción, diseño y evaluación de un instrumento (Escobar-Pérez y Cuervo-Martínez, 2008; Cabero-Almenara e Infante-Moro, 2014). Aunado a lo anterior, buscamos que el juicio estuviera integrado por más de diez expertos (Juárez-Hernández y Tobón, 2018; Lynn, 1986) y la participación de un número mayor de jueces; así, logramos la intervención de 15 jueces, nacionales y extranjeros.

Finalmente, un elemento fundamental es el enfoque realizado (cuali-cuantitivo), ya que como lo refiere Haynes, Richard y Kubay (1995), el estudio de la validez de contenido debe ser un proceso multimétodo; acorde con esto, la evaluación cualitativa permitió mejorar la presentación, los datos generales e ítems, tanto en su redacción como en su sintaxis; además, ajustamos verbos, colocamos ejemplos en algunos de ellos y, en otros casos, los unimos por referirse al mismo aspecto. Por su parte, la evaluación cuantitativa y el empleo de la V de Aiken confirmaron que el instrumento posee validez de contenido, y que los elementos del instrumento son pertinentes y representativos del constructo objetivo (Haynes et al., 1995).

Del marco metodológico, describimos los resultados del grupo piloto, los cuales son satisfactorios al verificar la comprensión de instrucciones e ítems, así como la relevancia de las preguntas y el grado de satisfacción del instrumento. Estos aspectos son importantes, ya que una comprensión errónea de las instrucciones y de los ítems afecta las propiedades psicométricas de un instrumento (Haynes et al., 1995).

Otro aspecto evaluado fue el grado de satisfacción, el cual, como indicamos, integra elementos relacionados con la extensión del instrumento y el tiempo que se requiere para contestarlo; esto es de considerarse, porque un instrumento demasiado extenso o complejo podría condicionar la objetividad para responderlo, o bien, determinar que el cuestionario no sea resuelto por completo. En cuanto al análisis de consistencia interna, si bien obtuvimos un valor óptimo (0.94), lo que se traduce en el grado de correlación entre ítems y representación del constructo abordado (Hernández, Fernández y Batista, 2003; Welch y Comer, 2001), tenemos que aclarar que este valor únicamente deberá ser visto como un análisis inicial, ya que el coeficiente empleado tiende a ser inestable con muestras pequeñas (Charter, 2003).

CONCLUSIONES

El instrumento presentado tiene el objetivo de evaluar el nivel de madurez de la GC para impulsar la innovación educativa en IES. Estos aspectos, mediante el proceso de validación, demostraron ser pertenecientes, pertinentes y representativos para el objeto de evaluación. El proceso de validación nos permitió el perfeccionamiento progresivo del instrumento y la adecuación en la redacción, lo cual fue observable en el pilotaje, en el que se manifestó un nivel conveniente de comprensión y satisfacción con el instrumento. Finalmente, si bien la validez de facie y la de contenido son propiedades relevantes en el análisis de un instrumento, se requiere el estudio de validez de constructo, el cual se refiere a la evidencia de la consistencia entre el perfil referencial y la prueba, en la que el acento consiste en sustentar el grado en que los puntajes en la prueba representan la medida del atributo que se supone evalúa (Leyva, 2010).

REFERENCIAS BIBLIOGRÁFICAS

1

Aguilar, M.; Fortanell, P. y García, B. (2012). La espiral de conocimiento, innovación, aprendizaje en instituciones de educación superior (IES). Projectics/Proyéctica/Proyectique, 11(12), 123-134. http://doi.org/10.3917/proj.011.0123.

2

Arboníes, Á. (2006). Conocimiento para innovar. España: Díaz de Santos.

3

Alfonso, I. (2016). La sociedad de la información, sociedad del conocimiento y sociedad del aprendizaje. Referentes en torno a su formación. Bibliotecas Anales de Investigación, 12(12), 235-243. Recuperado de: https://goo.gl/9hVL28.

4

Ansuattigui, R.; Caulliraux-Pithon, A. y Fernandez, J. (2013). Prácticas de gestión del conocimiento en una institución pública de investigación. El caso del centro tecnológico del ejército en Brasil (CTex). Información Tecnológica, 24(5), 51-60. http://doi.org/10.4067/S0718-07642013000500007.

5

Bailey, J.; Rodríguez, M.; Flores, M. y González, P. (2017). Contradicciones y propuestas para la educación en la sociedad del conocimiento. Sophia, 13(2), 30-39. Recuperado de: https://goo.gl/uqXniQ.

6

Barraza, A. (2006). Innovación didáctica en educación superior: un estudio de caso. Revista Electrónica Diálogos Educativos, 6(12), 2-15. Recuperado de: https://goo.gl/b9GFG1.

7

Begoña, G. (2015). La caída de los muros del conocimiento en la sociedad digital y las pedagogías emergentes. EKS, 16(1), 58-68. https://doi.org/10.14201/eks20151615868.

8

Bernal, C.; Turriago, Á. y Sierra, H. (2010). Aproximación a la medición de la gestión del conocimiento empresarial. AD-minister, 16, 30-49. Recuperado de: https://bit.ly/2m4DZ8a.

9

Blasco, J.; López, A. y Mengual, S. (2010). Validación mediante el método Delphi de un cuestionario para conocer las experiencias e interés hacia las actividades acuáticas con especial atención al windsurf. Ágora para la Educación Física y el Deporte, 12(1), 75-96. Recuperado de: https://bit.ly/2pxH8Pa.

10

Bulger, S. & Housner, L. (2007). Modified Delphi investigation of exercise science in physical education teacher education. Journal of Teaching in Physical Education, 26, 57-80. https://doi.org/10.1123/jtpe.26.1.57.

11

Cabero-Almenara, J. e Infante-Moro, A. (2014). Empleo del método Delphi y su empleo en la investigación en comunicación y educación. Revista Electrónica de Investigación Educativa, 48, 1-16. https://doi.org/10.21556/edutec.2014.48.187.

12

Cantón, I. y Ferrero, E. (2016). La gestión del conocimiento en revistas de educación. Educar, 52(2), 401-422. https://doi.org/10.5565/rev/educar.757.

13

Chacón, L. (2014). Gestión educativa del siglo XXI: bajo el paradigma emergente de la complejidad. Omnia, 20(2), 150-161. Recuperado de: https://www.redalyc.org/articulo.oa?id=73735396006.

14

Charter, R. (2003). Study samples are too small to produce sufficiently precise reliability coefficients. The Journal of General Psychology, 130(2), 117-129. https://doi.org/10.1080/00221300309601280.

15

Chu, S. K. W.; Wu, W. W. Y; Chan K. H. & Fu, O. H. (2011). The Relationship Between Knowledge Management and Intellectual Capital in Listed Companies of Mainland China. Proceedings of the 8th International Conference on Intellectual Capital, Knowledge Management & Organisational Learning. Bangkok, Thailand. October.

16

Cricelli, L.; Greco, M.; Grimaldi, M. & Llanes, L. (2018). Intellectual capital and university performance in emerging countries. Evidence from Colombian public universities. Journal of Intellectual Capital, 19(1), 71-95. https://doi.org/10.1108/JIC-02-2017-0037.

17

Cronbach, L. (1951). Coefficient Alfa and the internal structure of tests. Psychometrika, 16(3), 297-334. https://doi.org/10.1007/BF02310555.

18

Cuevas, A. (2016). La educación superior ante los desafíos sociales. Alteridad. Revista de Educación, 11(1), 101-109. https://doi:10.17163/alt.v11n1.2016.08.

19

De Freitas, Va. (2017). Nivel de madurez en sistemas de gestión del conocimiento en instituciones de educación superior: un estudio de caso desde un enfoque holístico. Gecontec: Revista Internacional de Gestión del Conocimiento y la Tecnología, 5(1). Recuperada de: https://www.upo.es/revistas/index.php/gecontec/article/view/1990.

20

De Freitas, Va. y Yáber, G. (2017). Gestión del conocimiento en instituciones de educación superior: factores de éxito. Negotium, 13(37), 5-33. Recuperado de: https://www.redalyc.org/articulo.oa?id=78252811002.

21

Demching, B. (2015). Knowledge management capability level assessment of the higher education institutions: Case study from Mongolia. Elsevier, Procedia, Social an Behaviral Sciencies, 174, 3633-3460. https://doi.org/10.1016/j sbspro.2015.01.1082.

22

Donate, M. y Guadamillas, F. (2010). Estrategia de gestión del conocimiento y actitud innovadora en empresas de Castilla-La Mancha. Un estudio exploratorio. Investigaciones Europeas de Dirección y Economía de la Empresa, 16(1), 34-54. https://doi.org/10.1016/S1135-2523(12)60002-1.

23

Donate, M. & Sánchez, J. (2015). The role of knowledge-oriented leadership in knowledge management practices and innovation. Journal of Business Research, 68, 360-370. https://doi.org/10.1016/j.jbusres.2014.06.022.

24

Escobar-Pérez, J. y Cuervo-Martínez, Á. (2008). Validez de contenido y juicio de expertos: una aproximación a su utilización. Avances en Medición, 6, 27-36. Recuperado de: https://dialnet.unirioja.es/servlet/articulo?codigo=2981181.

25

Galvis, E. y Sánchez, M. (2014). Revisión sistemática de literatura sobre procesos de gestión del conocimiento. Gerencia Tecnológica Informática, 13(37), 45-67. Recuperado de: https://revistas.uis.edu.co/index.php/revistagti/article/view/4691.

26

Gómez-Vargas, M. y García, M. (2015). Factores influyentes en la gestión del conocimiento en el contexto de la investigación universitaria. Información, Cultura y Sociedad: Revista del Instituto de Investigaciones Bibliotecnológicas, 33, 29-46. Recuperado de: https://www.redalyc.org/articulo.oa?id=263042678003.

27

González-Ortega, Y. (2008). Instrumento cuidado de comportamiento profesional: validez y confiabilidad. Aquichan 8(2), 170-182. Recuperado de: https://www.redalyc.org/pdf/741/74180205.pdf.

28

Guzmán, M.; Maureira, Ó.; Sánchez, A. y Vergara, A. (2015). Innovación curricular en la educación superior. ¿Cómo se gestionan las políticas de innovación en los (re)diseños de las carreras de pregrado en Chile? Perfiles Educativos, 34(149), 60-73. Recuperado de: http://www.scielo.org.mx/pdf/peredu/v37n149/v37n149a4.pdf.

29

Haynes, St.; Richard, D. y Kubay, E. (1995). Content validity in psychological assessment: A functional approach to concepts and methods. Psychological Assessment, 7(3), 238-247. http://dx.doi.org/10.1037/1040-3590.7.3.238.

30

Hernández, R.; Fernández, C. y Baptista, M. (2003). Metodología de la investigación. México: McGraw-Hill.

31

Jerónimo-Cano, E. y Juárez-Hernández, L. (2018). El índice de la economía del conocimiento: una propuesta para su cálculo a nivel municipal. Espacios, 39 (número especial CITED), 21-27. Recuperado de: http://www.revistaespacios.com/cited2017/cited2017-21.pdf.

32

Juárez-Hernández, L. y Tobón, S. (2018). Análisis de los elementos implícitos en la validación de contenido de un instrumento de investigación. Espacios, 39 (número especial CITED), 23-30. Recuperado de: http://www.revistaespacios.com/cited2017/cited2017-23.html.

33

Kerlinger, F. y Lee, H. (2002). Investigación del comportamiento. Métodos de investigación en ciencias sociales. Chile: McGraw-Hill.

34

Laurencio, A. y Farfán, P. (2016). La innovación educativa en el ámbito de la responsabilidad social universitaria. Revista Cubana de Educación Superior, 35(2), 16-34. Recuperado de: http://scielo.sld.cu/scielo.php?script=sci_abstract&pid=S0257-43142016000200002.

35

León, M. y Ponjuán, G. (2011). Propuesta de un modelo de medición para los procesos de la gestión del conocimiento en organizaciones de información. Revista Iberoamericana de Bibliotecología, 34(1), 87-103. Recuperado de: https://www.redalyc.org/articulo.oa?id = 179018530007.

36

Leyva, Y. (2010). Una reseña sobre la validez de constructo de pruebas referidas a criterio. Perfiles Educativos, 36(131), 131-154. Recuperado de: http://www.scielo.org.mx/pdf/peredu/v33n131/v33n131a9.pdf.

37

Liberona, D. y Ruiz, M. (2013). Análisis de la implementación de programas de gestión del conocimiento en las empresas chilenas. Estudios Gerenciales, 29, 151-160. Recuperado de: http://www.scielo.org.co/pdf/eg/v29n127/v29n127a04.pdf.

38

Luna, A.; Reyes, R. y Jiménez Y. (2017). Gestión del conocimiento en universidades públicas mexicanas. European Scientific Journal, 13(1). http://doi.org/10.19044/esj.2017.v13n1p54.

39

Lynn, M. (1986). Determination and quantification of content validity. Nursing Research, 35, 382-385.

40

Magaña, D.; Aguilar, N.; Quijano, R. y Argüelles, L. (2016). Perspectivas de los grupos de directivos y de investigación sobre la gestión del conocimiento: un estudio de caso. Revista internacional de Administración & Finanzas, 9(3), 43-59. Recuperado de: https://ssrn.com/abstract=2673199.

41

Matas, A.; Tójar, J. y Serrano, J. (2004). Innovación educativa: un estudio de los cambios diferenciales entre el profesorado de la Universidad de Málaga. Revista Electrónica de Investigación Educativa, 6(1), 01-21. Recuperado de: http://www.scielo.org.mx/pdf/redie/v6n1/v6n1a4.pdf.

42

Minakata, A. (2009). Gestión del conocimiento en educación y transformación de la escuela. Notas para un campo en construcción. Sinéctica, Revista Electrónica de Educación, (32), 1-21. Recuperado de: https://www.redalyc.org/articulo.oa?id=99812141008.

43

Montañez-Carrillo, L. y Lis-Gutiérrez, J. (2016). Medición de la madurez de la gestión del conocimiento en la escuela de ciencias básicas tecnología e ingeniería de la UNAD. Revista Especializada en Ingeniería. https://doi.org/10.22490/25394088.1595.

44

Montañez-Carrillo, L. y Lis-Gutiérrez, J. (2017). A propósito de los modelos de madurez de gestión del conocimiento. Revista Facultad de Ciencias Económicas: Investigación y reflexión, 25(2), 63-81. Recuperado de: http://www.scielo.org.co/pdf/rfce/v25n2/0121-6805-rfce-25-02-00063.pdf.

45

Montero, I. y León, O. (2007). A guide for naming research studies in Psychology. International Journal of Clinical and Health Psychology, 7(3), 547-862. Recuperado de: https://www.redalyc.org/articulo.oa?id=33770318.

46

Mul, J.; Mercado, L. y Ojeda, R. (2013). Propuesta de un instrumento para conocer las actividades de gestión del conocimiento y los factores organizativos que la influyen, en De Agüero. Conferencia presentada en el XVII Congreso Internacional de Contaduría, Administración e Informática. Universidad Nacional Autónoma de México, Facultad de Contaduría y Administración, México.

47

Naranjo, S.; González, D. y Rodríguez, J. (2016). El reto de la gestión del conocimiento en las instituciones de educación superior colombianas. Revista Folios, 44, 151-164. Recuperado de: https://www.redalyc.org/articulo.oa?id=345945922010.

48

Ortega, P.; Ramírez, M.; Torres, J.; López, A.; Servín, C.; Suárez, L. y Ruiz, B. (2007). Modelo de innovación educativa. Un marco para la formación y el desarrollo de una cultura de la innovación. Revista Iberoamericana de Educación a Distancia, 10(1), 145-173. Recuperado de: https://www.redalyc.org/pdf/3314/331427206010.pdf.

49

Ortegón, A.; Lasso, A. y Steil, A. (2016). Estrategia organizacional y ciclo de gestión del conocimiento: el modelo de Bukowitz y Williams en práctica. Espacios, 37(7), 1-11. Recuperado de: https://www.revistaespacios.com/a16v37n07/16370711.html.

50

Pee, L.G. y Kankanhalli, A. (2009). A Model of Organizational Knowledge Management. Maturity Based on People, Process and Technology. Journal of Information & Knowledge Management, 8(2): 79-99. Recuperado de: https://www.worldscientific.com/doi/abs/10.1142/S0219649209002270.

51

Pedraja, L. (2012). Desafíos para el profesorado en la sociedad del conocimiento. Ingeniare, 20(1), 136-144. https://doi.org/10.4067/S0718-33052012000100014.

52

Pedraja-Rejas, L. y Rodríguez-Ponce, E. (2008). Estilos de liderazgo, gestión del conocimiento y diseño de la estrategia: un estudio empírico en pequeñas y medianas empresas. Interciencia, 33(9), 651-657. Recuperado de: https://www.redalyc.org/pdf/339/33933905.pdf.

53

Penfield, R. y Giacobbi, P. (2004). Applying a score confidence interval to Aiken's item content-relevance index. Measurement in Physical Education and Exercise Science, 8(4), 213-225. https://doi.org/10.1207/s15327841mpee0804_3.

54

Quero, M. (2010). Confiabilidad y coeficiente Alpha de Cronbach. Telos, 12(2), 248-252. Recuperado de: https://www.redalyc.org/pdf/993/99315569010.pdf.

55

Rengifo-Millán, M. (2015). La globalización de la sociedad del conocimiento y la transformación universitaria. Revista Latinoamericana de Ciencias Sociales, Niñez y Juventud, 13(2), 809-822. http://doi.org/10.11600/1692715x.13218060415.

56

Rodríguez-Ponce, E. (2016). Estudio exploratorio del impacto de la gestión del conocimiento en la calidad de las universidades. Interciencia, 41(4), 228-234. Recuperado de: https://www.redalyc.org/articulo.oa?id=33944929002.

57

Ruiz, C. (2002). Instrumentos de investigación educativa. Procedimientos para su diseño y validación. Venezuela: Tipografía y Litografía Horizontes, CA.

58

Sañudo, L. (2014). Hacia un modelo de gestión del conocimiento educativo para instituciones de educación superior y centros de investigación. Trabajo presentado en el Congreso Iberoamericano de Ciencia, Tecnología, Innovación y Educación de Buenos Aires, 1-14. Recuperado de: https://goo.gl/aiQRej.

59

Teah, H.; Pee, L. & Kankanhalli, A. (2006). Development and application of a general knowledge management maturity model. Trabajo presentado en The tenth Pacific Asia Conferencie on Information Systems. Recuperado de: https://aisel.aisnet.org/cgi/viewcontent.cgi?referer=&httpsredir=1&article=1032&context=pacis2006.

60

Ureña, Y. y Villalobos, R. (2011). Gestión del conocimiento en institutos universitarios de tecnología. Praxis 7, 155-180. https://doi.org/10.21676/23897856.20.

61

Vázquez-González, G. y Jiménez-Macías, I. (2018). Clasificación de estrategias de gestión del conocimiento para impulsar la innovación educativa en instituciones de educación superior. Artículo entregado para la publicación.

62

Velasco, E. y Zamanillo, I. (2008). Evolución de las propuestas sobre el proceso de innovación: ¿qué se puede concluir de su estudio? Investigaciones Europeas de Dirección y Economía de la Empresa, 14(2), 127-138. https://doi.org/10.1016/S1135-2523(12)60027-6.

63

Welch, S. y Comer, J. (2001). Quantitative methods for public administration: Techniques and applications. Chicago: Dorsey.

Métricas de artículo

Cargando métricas ...

Metrics powered by PLOS ALM

Enlaces refback

  • No hay ningún enlace refback.




Indizaciones


  

Otros índices


Apertura vol. 13, núm. 2, octubre 2021 - marzo 2022, es una revista científica especializada en innovación educativa en ambientes virtuales que se publica de manera semestral por la Universidad de Guadalajara, a través de la Coordinación de Recursos Informativos del Sistema de Universidad Virtual. Oficinas en Av. La Paz 2453, colonia Arcos Sur, CP 44140, Guadalajara, Jalisco, México. Tel.: 333268-8888 ext. 18775, www.udgvirtual.udg.mx/apertura, apertura@udgvirtual.udg.mx. Editor responsable: Alicia Zúñiga Llamas. Número de Reserva de Derechos al Uso Exclusivo del Título de la versión electrónica: 04-2009-080712102200-203, e-ISSN: 2007–1094; número de Reserva de Derechos al Uso Exclusivo del Título de la versión impresa: 04-2009-121512273300-102, ISSN: 1665–6180, otorgados por el Instituto Nacional del Derecho de Autor. Número de Licitud de Título: 13449 y número de Licitud de contenido: 11022 de la versión impresa, ambos otorgados por la Comisión Calificadora de Publicaciones y Revistas Ilustradas de la Secretaría de Gobernación. Responsable de la última actualización de este número: Sergio Alberto Mendoza Hernández. Fecha de última actualización: 30 de septiembre de 2021.