Instrumento para evaluación de habilidades digitales en investigación educativa: diseño y validación
Instrument for assessing digital skills in educational research: design and validation
Instrumento para avaliação de competências digitais em investigação educativa: conceção e validação
教育研究中数字技能评估工具:设计与验证
أداة لتقييم المهارات الرقمية في البحث التربوي: التصميم والتحقق من الصدق والثبات
Instrumento para evaluación de habilidades digitales en investigación educativa: diseño y validación
RELIEVE. Revista Electrónica de Investigación y Evaluación Educativa, vol. 31, núm. 1, pp. 1-21, 2025
Universidad de Granada
Recepción: 01 Enero 2024
Aprobación: 01 Enero 2025
Publicación: 30 Junio 2025
Resumen: Las investigaciones orientadas a la evaluación del logro de competencias digitales para el ejercicio investigativo de los profesores de escuela todavía son escasas, pese a que su desarrollo está en el perfil de su profesión. El objetivo de esta investigación fue diseñar y validar el cuestionario de competencias digitales docente en investigación educativa (CCDD-IE-24). El estudio siguió un diseño psicométrico realizado con encuestas aplicadas a 736 docentes de educación básica regular de dos regiones del sur de Perú (Tacna y Moquegua) entre 21 y 70 años. Los resultados develaron que el instrumento cuenta con la concordancia en suficiencia, claridad, coherencia y relevancia de 9 jueces expertos (Coeficiente de Hernández Nieto > .9) y estadísticos descriptivos pertinentes. En el análisis factorial exploratorio se identificaron cuatro factores (KMO > .5, Bartlett < .05), luego en el confirmatorio se corroboró este modelo con adecuados índices de ajuste (X2/df, p < .05, SRMR y RMSEA < .08, TLI, CFI y GFI > .95). Además, los índices de validez convergente (AVE > .5), discriminante (√AVE > r) y de consistencia interna (αordinal y ω > .9) aseveraron la fiabilidad del constructo. Finalmente, se halló que existe invarianza factorial para su aplicación según el sexo y grado de enseñanza (ΔCFI < .01, ΔRMSEA ≤ .015 y p > .05). En conclusión, el CCDD-IE-24 cuenta con adecuados índices de validez, confiabilidad e invarianza para su aplicación a profesores de educación básica.
Palabras clave: Diseño, investigación pedagógica, competencias del docente, digitalización.
Abstract: Research aimed at assessing the achievement of digital competences for the research practice of school teachers is still scarce, despite the fact that their development is in the profile of their profession. The aim of this research was to design and validate the questionnaire of teachers' digital competences in educational research (CCDD-IE-24). The study followed a psychometric design carried out with surveys applied to 736 regular basic education teachers in two regions of southern Peru (Tacna and Moquegua) between 21 and 70 years of age. The results revealed that the instrument has the agreement in sufficiency, clarity, coherence and relevance of 9 expert judges (Hernandez Nieto Coefficient > .9) and relevant descriptive statistics. In the exploratory factor analysis, four factors were identified (KMO > .5, Bartlett < .05), then in the confirmatory analysis this model was corroborated with adequate fit indices (X2/df, p < .05, SRMR and RMSEA < .08, TLI, CFI and GFI > .95). In addition, the convergent (AVE > .5), discriminant (√AVE > r) and internal consistency (αordinal and ω > 0.9) validity indices asserted the reliability of the construct. Finally, it was found that there is factorial invariance for its application according to gender and grade of education (ΔCFI < .01, ΔRMSEA ≤ .015 and p > .05). In conclusion, the CCDD-IE-24 has adequate validity, reliability and invariance indices for its application to basic education teachers.
Keywords: Design, educational research, teacher qualifications, digitization.
Resumo: As investigações destinadas a avaliar a aquisição de competências digitais para a prática de investigação dos professores do ensino básico e secundário ainda são escassas, apesar de o seu desenvolvimento estar no perfil da sua profissão. O objetivo desta investigação foi conceber e validar o questionário de competências digitais em investigação educativa (CCDD-IE-24). O estudo seguiu um modelo psicométrico, utilizando inquéritos aplicados a 736 docentes do ensino básico regular em duas regiões do Sul do Peru (Tacna e Moquegua), com idades entre os 21 e os 70 anos. Os resultados revelaram que o instrumento tem a concordância em termos de suficiência, clareza, coerência e relevância de 9 juízes peritos (Coeficiente da Validade de Conteúdo de Hernández Nieto > 0,9) e estatísticas descritivas relevantes. Na análise factorial exploratória, foram identificados quatro fatores (KMO > 0,5, Bartlett < 0,05), depois, na confirmatória, este modelo foi corroborado com índices de ajuste adequados (X2/df, p < 0,05, SRMR e RMSEA < 0,08, TLI, CFI e GFI > 0,95). Além disso, os índices de validade convergente (AVE > 0,5), discriminante (√AVE > r) e de consistência interna (αordinal e ω > 0,9) atestaram a fiabilidade do constructo. Por último, verificou-se que existe invariância factorial para a sua aplicação em função do sexo e do grau de ensino (ΔCFI < 0,01, ΔRMSEA ≤ 0,015 e p > 0,05). Em conclusão, o CCDD-IE-24 apresenta índices de validade, fiabilidade e invariância adequados para a sua aplicação a professores do ensino básico.
Palavras-chave: Conceção, investigação pedagógica, competências do docente, digitalização.
摘要: 尽管数字能力的培养已纳入教师职业素养要求,针对学校教师研究能力的数字素养评估工具研究仍较为稀缺。本研究旨在设计并验证“教育研究教师数字能力问卷”(CCDD-IE-24)。研究采用心理测量设计,对秘鲁南部两地区(塔克纳和莫克瓜)736名21至70岁的基础教育教师进行问卷调查。结果显示,问卷在充分性、清晰性、一致性和相关性方面获得9位专家(Hernández Nieto系数>0.9)认可,相关统计指标良好。探索性因子分析识别出四个因子(KMO>0.5,Bartlett<0.05),确认性因子分析进一步证实模型的良好拟合(X2/df、p<0.05、SRMR和RMSEA<0.08、TLI、CFI和GFI>0.95)。聚合效度(AVE>0.5)、区分效度(√AVE>r)和内部一致性(α-ordinal与ω>0.9)均表明问卷信效度优良。问卷还具备性别和教学阶段的因子不变性(ΔCFI<0.01,ΔRMSEA≤0.015,p>0.05)。结论认为,CCDD-IE-24具备良好的信度与效度,适用于基础教育教师。
關鍵詞: 设计, 教育研究 , 教师能力, 数字化.
ملخص: لا تزال البحوث التي تهدف إلى تقييم مدى تحقيق الكفاءات الرقمية اللازمة لممارسة النشاط البحثي لدى معلمي المدارس قليلة، رغم أن تطوير هذه الكفاءات يُعد جزءًا من مواصفات مهنتهم. وتهدف هذه الدراسة إلى تصميم والتحقق من صدق وثبات "استبيان الكفاءات الرقمية للمعلمين في البحث التربوي" (CCDD-IE-24). وقد اتبعت الدراسة تصميماً سيكومترياً، استُخدمت فيه استبانات طُبقت على عينة مكونة من 736 معلماً في التعليم الأساسي النظامي من منطقتين في جنوب بيرو (تاكنا وموكغوا)، تتراوح أعمارهم بين 21 و70 سنة. كشفت النتائج أن الأداة تتمتع بدرجة عالية من الاتفاق بين تسعة محكمين خبراء في ما يخص الكفاية والوضوح والاتساق والأهمية (معامل هرنانديز نيتو > 0.9)، إضافة إلى إحصاءات وصفية مناسبة. وفي التحليل العاملي الاستكشافي، تم تحديد أربعة عوامل (KMO > 0.5، اختبار بارليت < 0.05)، بينما أكّد التحليل العاملي التوكيدي النموذج بأداء جيد وفقاً لمؤشرات المطابقة (X2/df، p < 0.05، SRMR وRMSEA < 0.08، TLI وCFI وGFI > 0.95). كما أظهرت مؤشرات الصدق التقاربي (AVE > 0.5)، والتمييزي (√AVE > r)، والثبات الداخلي (αordinal وω > 0.9) أن الأداة تتمتع بمستوى عالٍ من الموثوقية. وأخيراً، تبين وجود اتساق في البنية العاملية (المساواة العاملية) بحسب الجنس ودرجة التعليم (ΔCFI < 0.01، ΔRMSEA ≤ 0.015، وp > 0.05). وبناءً عليه، يمكن القول إن استبيان CCDD-IE-24 يتمتع بمؤشرات مناسبة للصدق والثبات والمساواة العاملية، مما يجعله أداة صالحة لتطبيقها على معلمي التعليم الأساسي
الكلمات المفتاحية: التصميم, البحث التربوي, كفاءات المعلم, التحول الرقمي.
Introducción
La competencia digital (CD) se ha convertido en un pilar trascendental en los procesos de investigación educativa debido a su capacidad para transformar y enriquecer las acciones de indagación y difusión de hallazgos sobre enseñanza y aprendizaje. Adquirir habilidades avanzadas en el uso de tecnología no solo podría acelerar el ritmo de investigación del profesorado, sino también conferir una ventaja en el análisis de grandes datos, aplicación de metodologías innovadoras y facilitar la colaboración en la comunidad académica. En pedagogía, se conceptualiza como un conjunto de conocimientos, habilidades y actitudes para el empleo eficiente de las TIC con criterio pedagógico y didáctico en la praxis educacional (Domingo-Coscollola et al., 2020; Esteve-Mon et al., 2016). Sin embargo, en el ámbito teórico e investigativo aún no se le prestado suficiente atención (Černý, 2020).
La conexión entre las competencias digitales y las tareas de producción científica de los profesores es cada vez más indivisible. El profesional de la educación necesita desarrollar habilidades para explorar y afrontar nuevas situaciones tecnológicas para resolver problemas y construir conocimientos de manera colaborativa (Calvani et al., 2008). En el contexto peruano, el Marco del Buen Desempeño Docente destaca que, entre las nueve competencias del profesorado, la cuarta se centra en el uso de estrategias y recursos tecnológicos accesibles, mientras que la sexta promueve la participación activa en proyectos de investigación e innovación (Ministerio de Educación, 2018), por lo tanto, la actividad investigativa es fundamental para los profesores en su ejercicio profesional. Esto se debe a que el aprendizaje de los estudiantes se ve influenciado por la competencia investigativa y tecnológica del docente (Syahrial et al., 2022).
De acuerdo con la cartografía de competencia digital, el desarrollo de CD en el proceso investigativo se posiciona en el segundo nivel del desarrollo de la competencia
digital (uso digital), debido a los fines profesionales o académicos que persigue (Ala-Mutka, 2011). Su desarrollo en la praxis investigativa fortalece las capacidades docentes en términos de conocimientos y habilidades, potenciándose aún más con la mediación del apoyo de herramientas tecnológicas (Paz Saavedra & Fierro Marcillo, 2015). Por ello, el progreso educativo demanda que los profesores investiguen y diseñen proyectos pedagógicos fundamentados en el método científico, lo que requiere estar capacitados y demostrar dominio no solo en dimensiones pedagógicas, tecnológicas y de conocimiento (Koehler et al., 2015) sino también en investigación.
Las CD en la investigación se definen como la capacidad de búsqueda, filtrado, evaluación y gestión de datos, información y contenidos digitales con objetivos investigativos (Sánchez et al., 2019). Si bien el empleo de las tecnologías en las ciencias sociales tuvo sus inicios en la década del 70 y 80 del siglo XX, inicialmente su uso estaba centrado en procesar, codificar, recuperar y analizar información (Díaz Rosabal et al., 2018). Hoy, la acción investigativa requiere cada vez más del uso de recursos digitales orientados en tareas más complejas como visualizaciones de datos, elaboración de redes, minería de datos y textos, mapeos, etc. Estas conforman las técnicas cualitativas y cuantitativas que responden a necesidades cada vez más complejas (Arbeláez, 2014; Lagunes, 2016).
La relación entre el dominio tecnológico, competencia o alfabetización digital y la competencia en investigación es fuerte (Indah et al., 2022; Katayev et al., 2023). El docente, además de contar con los conocimientos disciplinares, es imprescindible que adquiera el dominio de la dimensión metodológica, tecnológica y gestión de información. La competencia investigadora se conforma por el conocimiento y uso práctico de la tecnología en procedimientos metodológicos, aspectos conceptuales y procedimentales y habilidad para la comunicación científica (Mena & Lizenberg, 2015). La proliferación de dispositivos y herramientas para investigar ha generado que cada vez más existan nuevas alternativas para el desarrollo investigativo. Desde una visión tecnoinvestigativa, las herramientas tecnológicas favorecen el incremento de publicaciones, mayor participación en estudios internacionales, aumento de conciencia sobre el uso de herramientas infotecnológicas, reflexión sobre derechos de autor y tratamiento ético, incremento de trabajos colaborativos y autonomía (Cárdenas Zea et al., 2021). Ante este panorama, el uso de las CD condiciona la función del docente en productor de conocimientos.
El avance tecnológico ha desvelado un aporte significativo cada vez más indispensable en los procesos de investigación (Amirova et al., 2020). El acceso, análisis y tratamiento ético de información en la escritura académica son habilidades esenciales desarrolladas desde la formación universitaria (Rubio et al., 2018). La posibilidad de compartir información de manera colaborativa o realizar colaboraciones científicas a través de plataformas representa un predictor que sustenta la necesidad de emplear tecnologías en la actualidad (Arcila-Calderón et al., 2015). Las plataformas de aprendizaje continuo, simulaciones y eficiencia en el análisis de datos académicos –producto de los procesos de enseñanza y aprendizaje– extienden el umbral de argumentos que fundamentan la significancia de la tecnología en la investigación educativa. El nuevo paradigma del maestro investigador requiere que transforme las aulas en espacios de mejora continua para el desarrollo de saberes (Vega-Ramírez, 2023). El binomio entre la investigación y la alfabetización digital conduce a la acción investigativa a una transformación epistemológica, dinámica, inmediata y confiable (Castañeda et al., 2020). Es así que el protagonista de las revoluciones disruptivas en la investigación pedagógica es el docente.
En este marco, es un reto medir las competencias digitales en investigación educativa del profesorado, debido a que son los principales agentes del cambio educacional. Además, es la función del profesorado formar en habilidades investigativas a los estudiantes escolares y promover la mejora continua a través de proyectos de investigación con soporte tecnológico. Para este fin, se requiere contar con instrumentos orientados en evaluar el grado de adquisición de esta competencia. Diversas investigaciones han elaborado instrumentos para evaluar las competencias digitales de los estudiantes de educación primaria (Bastarrachea Rodríguez et al., 2023) o secundaria (Bielba Calvo et al., 2017), docentes universitarios en su quehacer pedagógico (Betancur-Chicue et al., 2023; Cabero-Almenara, Gutiérrez-Castillo, et al., 2020; Dias-Trindade et al., 2019; Velásquez Cortés & Veytia Bucheli, 2022), profesores de educación básica (Touron et al., 2018), estudiantes en formación docente de pregrado (Rodríguez et al., 2021; Silva-Quiroz et al., 2022) y posgrado en educación (Ramírez-Armenta et al., 2021) bajo la percepción pedagógica.
Son escasos los estudios que se enfocan en la competencia digital en investigación de los docentes. Por un lado, Guillén-Gámez y Mayorga-Fernández (2021) identificaron un modelo de tres factores sobre el uso de recursos TIC para (1) la enseñanza en el área del conocimiento, (2) el empleo didáctico en la evaluación y (3) la investigación y publicación de artículos científicos de los docentes universitarios. El siguiente estudio identificó seis factores de la competencia digital en investigación, sin embargo, lo realizó con estudiantes recién ingresantes a una universidad militar, pero no le atribuyó nominalizaciones a ninguno de los factores (Sánchez et al., 2019). Otro estudio plantea el análisis de bajo un modelo causal de 7 factores como (1) integración de recursos TIC para investigación, (2) ética digital, (3) calidad de recursos TIC relacionados con investigación, (4) habilidades digitales para buscar, gestionar, analizar resultados, (5) flujo digital de la investigación, (6) intención de utilizar las TIC para trabajos de investigación, (7) ansiedad por utilizar recursos TIC para la investigación (Guillén-Gámez et al., 2024). A pesar de ello, la literatura científica sobre las competencias digitales investigativas es escasa, lo que permite identificar un umbral todavía por explorar.
Debido a las razones antes expuestas y sustentadas en el vacío del conocimiento, el presente estudio pretende diseñar y validar un cuestionario de competencias digitales docente en investigación educativa.
Método
El estudio sigue un diseño instrumental (Ato et al., 2013), dado que incluye estudios de análisis de propiedades psicométricas de instrumentos de medición que se hayan creado, traducido o adaptados en nuevos escenarios transculturales.
Participantes
El estudio se realizó con profesores de educación básica de las dos regiones (Tacna & Moquegua) con mayor puntuación en competencia educativa en Perú, según el Índice de Competitividad Regional (Instituto Peruano de Economía, 2023). La muestra fue elegida a través del criterio no probabilístico intencional y considerando el criterio establecido por (Kline, 2014), quien indica que es necesario un mínimo de 300 sujetos para estudios psicométricos.
La muestra se conformó en total por 736 docentes de Tacna (50.82 %) y Moquegua (49.18 %). El 73.37 % son mujeres y el 26.63 % varones. El rango de edad de los profesores oscila entre 21 y 70 años, de los que 28.40 % tienen entre 21 y 40 años, 34.78 % entre 41 y 50; y 36.58 % entre 51 y 70 años. En el tipo de gestión, el 23.51 % labora en el sector privado y 76.49 % en el público. En el nivel de enseñanza, el 20.52 % trabaja en el nivel inicial, 39.27 % de primaria y 40.22 % de secundaria. En el grado académico o título, el 45.52 % posee título pedagógico, el 8.70 % es bachiller, el 28.67 % tiene licenciatura, 16.30 % maestría y 0.82 % doctorado.
Diseño del instrumento
Inicialmente, se revisó la bibliografía de las publicaciones más recientes sobre diseños de instrumentos para evaluar las competencias digitales de los profesores, las publicaciones fueron entre el 2015 y 2021. El proceso de revisión fue en los idiomas de inglés y español considerando los términos de búsqueda “Digital competence” OR “Digital literacy” AND “teacher” OR “professor”. Seguidamente, se confirmó que la principal base de elaboración de instrumentos son los aportes brindados por el Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (2017). De este modo, el instrumento se elaboró con 24 ítems que se agruparon en 5 dimensiones: informacional (4 ítems), comunicación y colaboración (5 ítems), creación de contenido (6 ítems), seguridad (4 ítems) y solución de problemas digitales (5 ítems). Por cada ítem, los participantes respondieron a una escala de 1 al 5, donde 1=nunca, 2 = casi nunca, 3 = a veces, 4 = casi siempre y 5 = siempre. Se nominalizó al instrumento como “Cuestionario de Competencias Digitales Docente en Investigación Educativa” (CCDD-IE-24). La valoración se atribuye únicamente desde la percepción del profesorado. Su estructura se evidencia en la figura 1.
Procedimientos
Luego, para evaluar la suficiencia (pertenencia de un ítem a un constructo), claridad (comprensión del ítem), relevancia (importancia del ítem para el constructo) y coherencia (relación lógica del ítem con el constructo), se tomó en cuenta la opinión de 9 jueces expertos en educación, investigación y competencias digitales. La revisión consistió en llenar un cuestionario que presentaba los cuatro aspectos para cada ítem. Los expertos debían evaluar el grado de suficiencia, claridad, relevancia y coherencia marcando “x” en una escala de valoración de 1 (no cumple con el criterio) al 4 (alto nivel) (Escobar-Pérez & Cuervo-Martínez, 2008). Con los resultados obtenidos se calculó el Coeficiente de Validez de Contenido (CVC) para cada ítem y criterio evaluado. Tras obtener la respuesta de los evaluadores, se contactó con un grupo focal de 10 profesores de educación básica, quienes leyeron el cuestionario y ofrecieron su valoración cualitativa del instrumento. Esta etapa permitió corroborar lo brindado por los evaluadores expertos.
Luego, se realizaron los trámites para el permiso correspondiente a la Unidad de Gestión Educativa Local de Tacna y de Moquegua para la aplicación del instrumento. Seguidamente, se elaboró el cuestionario con Formulario de Google para su divulgación virtual. El formulario contenía información sobre los objetivos del estudio, el rol de los participantes y la participación voluntaria, consensuada y anónima. Por tanto, el recojo de datos se realizó a través de los canales de correo y grupos de Whatsapp distribuidos por los directores y subdirectores de las instituciones educativas. Los profesores previamente dieron su consentimiento informado para ser partícipes en la investigación. Los datos se recolectaron entre diciembre de 2021 y febrero de 2022.
Análisis de datos
La evaluación de la de suficiencia, claridad, coherencia y relevancia se analizó considerando el CVC de Hernández-Nieto con una concordancia aceptable > .7 (Pedrosa et al., 2014). En la primera etapa, se consideró como muestra 362 profesores de Moquegua. Con la respuesta de los participantes se analizó los estadísticos descriptivos de los ítems (media, desviación estándar, asimetría y curtosis).
Luego, se realizó el análisis factorial exploratorio (AFE) para la comprobación empírica de la forma de agrupación de los ítems en factores (Mavrou, 2015) con el software Factor Analysis (Lorenzo-Seva & Ferrando, 2006). Debido a la naturaleza ordinal de la variable, previamente se verificó la matriz de relaciones policóricas (Bandalos & Finney, 2010) y se empleó el método Oblimin directo, asumiendo la correlación entre factores (rotación oblicua) (Clarkson & Jennrich, 1988). Los supuestos previos para la comprobación de la idoneidad del AFE se realizaron a través de Kaiser Meyer y Olkin (KMO) cuyo valor debe superar > .8 y la prueba de esfericidad de Bartlett para evaluar la matriz de identidad, con un valor < .05 (Chan & Idris, 2017). Se empleó tres criterios para determinar el número de factores en el AFE, el primero fue basado en autovalores superiores a 1 con la regla de Kaiser y gráfico de sedimentación (Cattell, 1966), el segundo con el empleo de método de Análisis Paralelo (Timmerman & Lorenzo-Seva, 2011) y el tercero considerando el número de factores del modelo teórico (Conway & Huffcutt, 2003). Posteriormente, se compararon los tres modelos de rotación a partir de la varianza acumulada que se estima sea > 60 % (Hair et al., 2010), el error de aproximación cuadrático medio < .08 (RMSEA), índice de bondad de ajuste (GFI), índice comparativo de ajuste > .9 (CFI) y el Criterio de Información Bayesiano (BIC) para evaluar la parsimonia (Lloret-Segura et al., 2014; Schwarz, 1978). De este modo, se eligió el modelo más apropiado. Las estimaciones de los ítems debían ajustarse a cargas factoriales > .3 (Hogarty et al., 2005) y cada factor al menos agrupar 3 ítems (Velicer & Fava, 1998).
Para confirmar el modelo, se empleó el análisis factorial confirmatorio (AFC). El ajuste se verificó con el estimador de Mínimos Cuadrados Ponderados Robustos (WLSMV) con el paquete Lavaan de R Studio, debido a que se trata de variables categóricas. El método elegido no requiere supuestos de normalidad, dado que tiene como base las correlaciones policóricas (Li, 2016). Se estimó el índice de Chi Cuadrado, grados de libertad, valor de p, residuo cuadrático medio estandarizado (RSMR), error de aproximación cuadrático medio (RMSEA), el índice de Tucker Lewis (TLI), índice de ajuste comparativo (CFI) y el índice de bondad de ajuste (GFI) (Escobedo et al., 2016). Se identificó las cargas factoriales y errores de cada ítem.
Para la validez de criterio se identificó la validez convergente con el análisis de la varianza media extraída (AVE), el cual debe ser > .7 (Hair et al., 2010). Asimismo, se realizó la validez divergente o discriminante con el criterio de (Fornell & Larcker, 1981), donde las relaciones debían ser menor a raíz cuadrada de AVE (< √AVE). Luego, se reportó el análisis de consistencia interna de alfa ordinal y omega ordinal (Contreras Espinoza & Novoa-Muñoz, 2018; Ventura-León, 2017). Finalmente, se realizó la comprobación de la invarianza factorial según el sexo y el nivel de enseñanza con el análisis de ecuaciones estructurales sobre el análisis factorial multigrupo con la librería “Lavaan”; el método de estimación fue mínimos cuadrados ponderados robustos (WLSMV), debido a la naturaleza categórica de los ítems (Brown, 2008). Luego se evaluó progresivamente los diferentes niveles de invarianza como configuracional (sin restricciones), métrica (con las cargas factoriales), escalar (cargas factoriales e interceptos o tau) y estricto (cargas factoriales, interceptos y residuos) (Dimitrov, 2010). Finalmente, se evaluaron los cambios observados en el X 2, grados de libertad, RMSEA ≤ .08, el CFI y TLI con valores estimados ≥ .95 en los tres últimos niveles (Barrera-Barrera et al., 2015; Hu & Bentler, 1999).
Resultados
Los resultados de la validez de contenido con el Coeficiente de Hernández-Nieto brindaron valores > .7 en la suficiencia (> .92), claridad (> .94), coherencia (> .94) y relevancia (> .94) en todos los ítems (tabla 1). En cuanto a los estadísticos descriptivos, evidencian una media entre 2.09 y 3.81, con desviaciones entre 1.02 y 1.18, que develan valores aceptables por encontrarse entre 3 y 1. En el caso de la asimetría (As) y curtosis (K) los ítems obtuvieron puntuaciones entre +/- 1.5, lo que indica la adecuación de los ítems (Forero et al., 2009).
Ítems | CVCtc | Descriptivos | |||||
SU | CL | CO | RE | M(SD) | As | k | |
INF1 | .92 | 1.00 | 1.00 | .94 | 3.81(1.02) | -.751 | 0.210 |
INF2 | .97 | 1.00 | 1.00 | 1.00 | 3.79(0.98) | -.749 | 0.358 |
INF3 | .97 | 1.00 | 1.00 | .97 | 3.61(1.01) | -.561 | -0.058 |
INF4 | .97 | 1.00 | 1.00 | .97 | 2.93(1.12) | -.104 | -0.742 |
COM5 | .97 | 1.00 | 1.00 | .97 | 2.77(1.12) | .067 | -0.786 |
COM6 | .97 | 1.00 | 1.00 | 1.00 | 2.64(1.15) | .198 | -0.774 |
COM7 | 1.00 | 1.00 | 1.00 | 1.00 | 3.21(1.13) | -.385 | -0.539 |
COM8 | 1.00 | 1.00 | 1.00 | 1.00 | 3.53(1.16) | -.527 | -0.534 |
COM9 | .97 | 1.00 | 1.00 | 1.00 | 2.66(1.18) | .135 | -0.918 |
CRE10 | .97 | 1.00 | 1.00 | .97 | 2.46(1.15) | .244 | -0.937 |
CRE11 | .92 | .97 | .97 | .94 | 3.02(1.10) | -.433 | -0.647 |
CRE12 | .97 | 1.00 | 1.00 | 1.00 | 2.51(1.19) | .328 | -0.813 |
CRE13 | .97 | 1.00 | 1.00 | 1.00 | 2.09(1.04) | .521 | -0.812 |
CRE14 | .94 | .94 | .94 | .94 | 2.28(1.16) | .448 | -0.839 |
CRE15 | .97 | 1.00 | .97 | 1.00 | 2.63(1.17) | .030 | -1.032 |
SEG16 | .92 | .97 | .97 | .97 | 2.94(1.15) | -.034 | -0.819 |
SEG17 | .97 | 1.00 | 1.00 | .97 | 3.31(1.17) | -.247 | -0.783 |
SEG18 | .97 | .97 | 1.00 | 1.00 | 3.07(1.16) | -.108 | -0.780 |
SEG19 | .97 | .97 | .97 | .97 | 3.11(1.12) | -.236 | -0.686 |
SOL20 | .94 | .97 | .97 | .97 | 2.90(1.13) | -.018 | -0.767 |
SOL21 | .97 | 1.00 | 1.00 | .97 | 3.16(1.11) | -.228 | -0.670 |
SOL22 | 1.00 | .97 | .97 | .97 | 3.17(1.05) | -.176 | -0.549 |
SOL23 | 1.00 | 1.00 | .97 | .97 | 3.24(1.08) | -.168 | -0.497 |
SOL24 | 1.00 | .97 | .94 | .97 | 3.02(1.13) | -.126 | -0.705 |
Total | .97 | .99 | .99 | .98 |
Las relaciones policóricas entre los ítems oscilan entre .35 y .9, lo que indica correlaciones significativas y moderadas (figura 2). Solo las relaciones entre el ítem 4 con el 12, 15 y 17, así como el ítem 15 con el 5 y el ítem 6 con el 17 fueron inferiores a .4. El resto superó esta puntuación y devela relaciones adecuadas, que llevan a la decisión de asumir una rotación oblicua (oblimin directo).
La prueba de KMO indica una puntuación superior a .50, que devela una adecuación de la muestra. Asimismo, la prueba de Bartlett es menor a .05, esto indica que existe una matriz de identidad y se puede ejecutar el AFE. Además, se compara los tres modelos con 2, 4 y 5 factores. El modelo con 2 factores parece explicar en mayor proporción la varianza (79.8 %), respecto al modelo con 4 (77 %) y 5 factores (67.8 %), sin embargo, los tres modelos superan el 50 %. En el RMSEA y CFI, se evidencia mejor adecuación con el modelo de 5 factores, sin embargo, en el GFI fue mejor el modelo con 4 y 2 factores (tabla 2). El criterio de parsimonia BIC indica que es más parsimonioso el modelo con 4 factores, motivo por el que constituye el más pertinente y adecuado para el presente estudio (Hair et al., 2010).
Modelos | N° factores | σ2explicada | RMSEA | CFI | GFI | BIC (IC 95%) |
Criterio de Autovalores | 2 | .798 | .078 | .992 | 1.000 | 1151.94 (1014.39 -1250.68) |
Método de Análisis Paralelo | 4 | .770 | .039 | .998 | 1.000 | 995.37 (934.01 - 1021.64) |
Modelo inicial | 5 | .678 | .028 | .999 | .999 | 1061.07 (1025.30 - 1074.68) |
Bartlett | 4054.5 (df = 276; p = 0.001) | |||||
KMO (IC95%) | 0.920(0.921 - 0.929) |
La tabla 3 presenta los pesos factoriales luego de la rotación de los ítems. Se identifica que los ítems 10, 11, 12, 13, 14 y 15 se agruparon en el factor 1, al que se denomina “Creación de contenido”, los ítems 1, 2, 3, 7 y 8 por su parte se unieron en el factor 2, se nominalizó “Competencia informacional y comunicativa”, luego, los ítems 16, 17, 18, 19, 20, 21, 22, 23 y 24 se agruparon el tercer factor bajo el nombre de “Seguridad y solución de problemas digitales” y los ítems 4, 5, 6 y 9 se agruparon en el factor 4 denominado “Gestión de redes colaborativas”. Las cargas son superiores a .3 y existe al menos 3 ítems por cada constructo y las comunalidades son superiores a .5, lo que indica que los ítems explican adecuadamente la estructura subyacente (Hair et al., 2010). Además, el índice del alfa ordinal es adecuado en cada factor emergente (αordinal > .7) y la varianza explicada por cada factor a través del índice de Orion es superior al 90 %, por lo que los factores incluidos son suficientes (Ferrando & Lorenzo-Seva, 2016).
Variable | λCCO | λCIC | λSSP | λGRC | λIC 95% | H2 |
CRE_10 | .766 | (.615 - .866) | .741 | |||
CRE_11 | .551 | (.396 - .734) | .652 | |||
CRE_12 | .757 | (.631 - .889) | .649 | |||
CRE_13 | .726 | (.618 - .856) | .776 | |||
CRE_14 | .727 | (.584 - .843) | .751 | |||
CRE_15 | .765 | (.631 - .904) | .758 | |||
INF_1 | .838 | (.739 - .948) | .833 | |||
INF_2 | .924 | (.870 - 1.012) | .944 | |||
INF_3 | .713 | (.614 - .795) | .828 | |||
COM_7 | .311 | (.175 - .442) | .581 | |||
COM_8 | .482 | (.361 - .606) | .664 | |||
SEG_16 | .433 | (.266 - .592) | .620 | |||
SEG_17 | .713 | (.490 -.946) | .683 | |||
SEG_18 | .683 | (.481 - .854) | .697 | |||
SEG_19 | .826 | (.625 - .993) | .582 | |||
SOL_20 | .886 | (.744 -1.030) | .686 | |||
SOL_21 | .932 | (.809 - 1.093) | .882 | |||
SOL_22 | .819 | (.648 -.959) | .859 | |||
SOL_23 | .724 | (.552 -.875) | .773 | |||
SOL_24 | .701 | (.547 - .871) | .703 | |||
INF_4 | .760 | (.677 - .838) | .891 | |||
COM_5 | .798 | (.721 -.860) | .917 | |||
COM_6 | .546 | (.383 - .661) | .601 | |||
COM_9 | .586 | (.493 - .676) | .711 | |||
Alfa ordinal | .967 | .980 | .982 | .969 | ||
Orion | .935 | .960 | .964 | .940 | ||
Varianza | 4.779 | 3.614 | 6.528 | 2.860 |
Los pesos factoriales (λ) del AFC con base en la muestra de docentes de Tacna (n = 374), donde se evidencia que en el factor 1 (CCO), los pesos factoriales oscilan entre .83 y .92. En el factor 2 (CIC), los pesos varían entre .88 y .92. En el factor 3 (SSP) se encuentra entre .82 y .95. Finalmente, en el factor 4 (GRC) los pesos yacen entre .77 y .90. En conclusión, se afirma que existe adecuadas cargas factoriales. Los índices de ajuste indican que el p > .05, y los valores de TLI, CFI y GFI fueron superiores a .95 lo que indica una óptima bondad de ajuste, en la misma línea, los índices de RMSEA (< .08) y SRMR (< .05) también alcanzaron valores esperados (figura 3). Por lo tanto, es posible afirmar que el instrumento alcanzó el nivel de validez de constructo
Los índices de consistencia interna del instrumento de acuerdo a los factores CIC, GRC, CCO y SSP alcanzaron puntuaciones altas mayores a .9 en el αordinal y Ωordinal (Tabla 4). Además, la validez convergente de cada variable latente también presentó puntuaciones óptimas (AVE > .5). En cuanto a la validez discriminante, se evidenció que las puntuaciones del √AVE son superiores a las correlaciones entre los factores, por tanto, se confirma que existe una identidad de cada factor respecto a otros
Factores | αordinal | Ωordinal | AVE | √AVE | CIC | GRC | CCO | SSP |
CIC | .95 | .95 | .82 | .90 | .90* | |||
GRC | .91 | .91 | .74 | .86 | .81 | .86* | ||
CCO | .95 | .96 | .77 | .88 | .86 | .83 | .88* | |
SSP | .97 | .97 | .78 | .88 | .86 | .82 | .86 | .88* |
Para conocer el grado de la invarianza de medición, se realizó el análisis multigrupo con base en las variables sexo (V1) y nivel de enseñanza (V2) del CCDD-IE-24. El modelado incluye la estructura media para los modelos de invarianza configuracional (M1), métrico (M2), escalar (M3) y estricto (M4). Primero, se probó el M1 (modelo configuracional) de línea base con un modelo de 4 factores latentes sin restricciones, en el que se encontró ajustes adecuados como el RMSEA < .08, CFI > .95, TLI > .95 (Hu & Bentler, 1999). Seguidamente, en el M2 se analiza la invarianza métrica con restricciones sobre las cargas factoriales en V1 y V2, en el que los ajustes también fueron pertinentes. La diferencia entre M2 y M1 evidencia valores con diferencia mínima entre los ajustes en ΔCFI < .01, ΔTLI ≤ .01, ΔRMSEA ≤ .015 y p > .05, por tanto, las cargas factoriales son equivalentes (Chen, 2007). En la invarianza escalar (M3) se ha restringido los interceptos y las cargas. Los índices obtenidos fueron apropiados y al compararlo con el M2, no se presentaron cambios significativos superiores a los criterios establecidos en ninguna variable (V1 y V2). Finalmente, en la invarianza estricta (M4), en el que se restringió además de las cargas e interceptos, los residuos o las varianzas de error, se detectó que, aunque los índices de ajuste y las diferencias con el M3 expresan valores adecuados en Δ de CFI, Δ de TLI y Δ de RMSEA, el valor de ꭓ2 obtenido (p < .05), resultó significativo, contrariamente a lo esperado en la V1 y V2. Por lo tanto, los resultados sostienen el buen ajuste de los reactivos en el modelo de 4 factores del CCDD-IE-24 y se mantienen invariantes al sexo y el nivel de enseñanza de los profesores, solo en un parámetro del M4 no se halló el valor esperado, por lo que se asume una invarianza parcial debido a la excesiva restricción de la invarianza estricta (Dimitrov, 2010), pero las puntuaciones son predominantemente comparables entre los grupos.
Modelos | ꭓ2(gl) | Δꭓ2(gl) | p | CFI | ΔCFI | TLI | ΔTLI | RMSEA (IC 90%) | ΔRMSEA |
V1 | |||||||||
M1 | 1432.6 (540) | - | - | .974 | - | .973 | - | .067 (.063 - .071) | - |
M2 | 1448.8 (560) | 21.244 (20) | .383 | .975 | .001 | .976 | .003 | .066 (.062 - .070) | .001 |
M3 | 1470.3 (580) | 31.685 (20) | .057 | .975 | .000 | .977 | .001 | .065 (.061 - .069) | .001 |
M4 | 1588.2 (604) | 46.879 (24) | .003 | .980 | .005 | .982 | .005 | .067 (.063 - .071) | .002 |
V2 | |||||||||
M1 | 1661.4 (834) | - | - | .975 | - | .976 | - | .064 (.059 - .068) | - |
M2 | 1703.9 (874) | 53.502 (40) | .075 | .976 | .001 | .977 | .001 | .062 (.058 - .067) | .002 |
M3 | 1737.2 (914) | 48.457 (40) | .169 | .977 | .001 | .979 | .002 | .061 (.056 - .065) | .001 |
M4 | 2104.9 (962) | 155.557 (48) | .001 | .978 | .002 | .981 | .002 | .070 (.066 - .074) | .009 |
Discusión y conclusiones
La participación del profesorado de educación básica en los procesos investigativos pedagógicos requiere de una continua actualización y dominio de competencias digitales. Por tanto, resulta esencial que se cuente herramientas propicias que ayuden a evaluarlas. El objetivo del estudio fue diseñar y validar el cuestionario CCDD-IE-24 para la aplicación y obtención de resultados apropiados y confiables.
Los resultados han demostrado que el CCDD-IE-24 presenta los niveles adecuados de validez y confiabilidad. Por un lado, con la opinión de los expertos, se comprobó que los hallazgos de la validez de contenido develan la adecuación de los ítems para la medición del constructo evaluado. Por otro lado, las evidencias de validez de constructo con el AFE, ha demostrado que el modelo con 4 factores tiene mayor parsimonia que los modelos con 2 y 5 factores. El AFC se corroboró que las cargas factoriales son pertinentes y los índices de ajuste permiten aseverar que el instrumento representa y mide apropiadamente el modelo teórico explorado. En el caso de la validez convergente y discriminante se ha detectado que los constructos latentes del CCDD-IE-24 mantienen una relación interna fuerte y a la vez diferente de otros constructos. Los índices de fiabilidad fueron adecuados en cada factor y confirman que el instrumento es parcialmente invariante al sexo y al nivel de enseñanza de los profesores.
Los hallazgos son concordantes con la literatura que ha explorado los aportes de diferentes instrumentos sobre competencias digitales en el sector educativo en aspirantes a profesores (Rodríguez et al., 2021; Silva-Quiroz et al., 2022), docentes de educación básica (Touron et al., 2018) y superior universitario (Betancur-Chicue et al., 2023; Cabero-Almenara, Barroso-Osuna, et al., 2020; Velásquez Cortés & Veytia Bucheli, 2022). Sin embargo, estos estudios han abordado la función en el proceso de aprendizaje (de estudiantes) y enseñanza (de docentes) educativo. También se encontraron coincidencias con otro estudio más centrado en el dominio tecnológico para el proceso investigativo de profesores multidisciplinarios de universidades españolas (Guillén-Gámez & Mayorga-Fernández, 2021b), con la diferencia de que este estudio abordó factores subyacentes referidos al 1) uso de la tecnología para la enseñanza, 2) evaluación e 3) investigación. Al parecer solo este último factor se vinculó con aspectos relacionados al dominio TIC para investigar en el campo pedagógico. Otro estudio interesado en la competencia digital en la investigación se realizó con universitarios mexicanos en el campo ingenieril (Sánchez et al., 2019) y también concluyeron con tres factores latentes como la 1) información y alfabetización informacional, 2) comunicación y colaboración y 3) creación de contenido digital, que develaron adecuadas evidencias de validez y confiabilidad. Sin embargo, nuestro modelo constituye 4 factores emergentes que evalúan diferentes competencias digitales del profesorado en el campo investigativo de la educación.
El factor 1 “Creación de contenido” explica el conjunto de capacidades para crear y editar nuevos contenidos que integren el conocimiento (tablas y figuras), así como la reutilización de información existe en la web para elaborar nuevo contenido utilizando lenguaje de programación y manteniendo los derechos de autoría. Este constructo fue empleado en otros instrumentos (Betancur-Chicue et al., 2023;Sánchez et al., 2019; Silva-Quiroz et al., 2022). El factor 2 “Competencia informacional y comunicativa” sustenta las habilidades de búsqueda, evaluación y utilización de la información actualizada y confiable, así como la participación y colaboración activa en escenarios académicos educacionales. La medición del conjunto de habilidades con el manejo de información se desarrolló en validaciones anteriores desde un enfoque pedagógico (Bielba Calvo et al., 2017; Restrepo-Palacio & Segovia Cifuentes, 2020). El factor 3 “Seguridad y solución de problemas digitales” explica la protección de dispositivos, datos personales y salud del profesorado, además de la capacidad para resolver problemas tecnológicos durante la investigación y la continua actualización de sus competencias. La variable latente expresa la importancia del conocimiento técnico para atender a posibles problemas y ha sido empleado por otros autores (Rodríguez et al., 2021; Touron et al., 2018), aunque de forma independiente la seguridad y solución. Finalmente, el factor 4 “Gestión de redes colaborativas” atiende al manejo apropiado de las redes de comunicación académica que permiten la divulgación de los resultados de investigación. El constructo, aunque no fue utilizado explícitamente por estudios previos, algunas expresiones similares como la colaboración online repercuten en otras construcciones instrumentales (Silva-Quiroz et al., 2022). Por tanto, se puede decir que este último factor representa un constructo poco explorado.
El CCDD-IE-24 es un instrumento que puede administrarse a los profesores de educación básica, sin embargo, sería conveniente realizar adaptaciones a profesores formadores de profesores en la educación superior universitaria y no universitaria (institutos pedagógicos). Las variables latentes propuestas en la investigación obedecen a respuestas ofrecidas por docentes, cuya región durante los últimos años ha ocupado posiciones altas en el ranking educativo a nivel nacional y que se encuentran en la zona urbana, donde la precariedad educacional es menor que en la zona rural. Sería conveniente implementar el instrumento en otros contextos educativos de la zona rural. La investigación educativa representa un umbral poco explorado y ejecutado por los profesionales de la educación básica peruana, si bien en la educación superior se ha atendido cada vez más a esta problemática, todavía es necesario fortalecerlo mediante capacitación. Un paso previo es el conocimiento de las competencias digitales que tienen.
Las implicancias del estudio posibilitan que con el instrumento se habilite espacios para investigaciones descriptivas, relacionales, explicativas o psicométricas que se orienten en plantear mejoras continuas del profesorado y del mismo instrumento. El beneficio de contar un instrumento validado se aterriza en mediciones más estrictas y fidedignas, si bien es un cuestionario que se orienta a una autopercepción, es un paso previo para la elaboración de próximas herramientas que atiendan la evaluación entre pares o heteroevaluación. En el ámbito pragmático, la transformación de los procesos educacionales liderado por los gerentes educacionales y políticas educativas solicita cada vez más el desarrollo de nuevas competencias orientadas a direccionar los cambios en la enseñanza y aprendizaje. La adquisición de competencias digitales en la investigación cuantitativa o cualitativa (Lagunes, 2016) da origen a profesores más conscientes de sus decisiones al momento de realizar innovaciones pedagógicas. Alfabetizarse digitalmente para la ejecución de acciones prácticas y teóricas como la investigación representa una alianza indispensable (Katayev et al., 2023). Los alcances que ha generado la abundancia de herramientas tecnológicas para investigar condicionan al profesional de la pedagogía a adquirir una perspectiva tecnoinvestigativa condicionada por la reflexión e incremento de colaboración en procesos de investigación pedagógica (Cárdenas Zea et al., 2021). El escenario de enseñanza y aprendizaje no solo requiere del conocimiento disciplinar y pedagógico, sino también del tecnológico (Koehler et al., 2015). Contar con un instrumento que favorezca la evaluación de esta competencia es un avance importante en esta línea de investigación.
Respecto a las limitaciones del estudio, en primer lugar, la muestra fue por conveniencia y de solo dos regiones del país, lo que dificulta su alcance nacional e internacional. En segundo lugar, no se presentó los puntos de corte, por lo tanto, abre un vacío para proponerlos de acuerdo a la realidad del contexto en donde se adapte. En tercer lugar, una limitación del instrumento es que se sostiene en la percepción del profesorado. Las futuras investigaciones podrían considerar estas limitantes y abordar estudios orientados en fortalecer el constructo del instrumento y plantear mejoras eficientes en la investigación educativa.
Agradecimientos
Se agradece a Escuela de Posgrado Newman y la Facultad de Educación, Ciencias de la Comunicación y Humanidades de la Universidad Privada de Tacna por el apoyo administrativo brindado durante la investigación. Asimismo, a la Unidad de Gestión Educativa Local de Tacna y área de Investigación de la Dirección Regional de Educación Moquegua por las facilidades en el proceso de recolección de datos.
Referencias
Ala-Mutka, K. (2011). Mapping digital competence: towards a conceptual understanding. European Commission.
Amirova, A., Iskakovna, J. M., Zakaryanovna, T. G. Nurmakhanovna, Z. T., & Elmira, U. (2020). Creative and research competence as a factor of professional training of future teachers: Perspective of learning technology. World Journal on Educational Technology: Current Issues, 13(4), 278–289. https://doi.org/10.18844/wjet.v12i4.5181
Arbeláez, M. C. (2014). Las tecnologías de la información y la comunicación (TIC) un instrumento para la investigación. Revista Investigaciones Andina, 16(29), 997–1000.https://doi.org/10.33132/01248146.52
Arcila-Calderón, C., Calderín, M., & Aguaded, I. (2015). Adoption of ICTs by communication researchers for scientific diffusion and data analysis. El Profesional de La Información, 24(5), 1699–2407. https://doi.org/10.3145/epi.2015.sep.03
Ato, M., López, J. J., & Benavente, A. (2013). Un sistema de clasificación de los diseños de investigación en psicología. Anales de Psicología, 29(3), 1038–1059. https://doi.org/10.6018/analesps.29.3.178511
Bandalos, D. L., & Finney, S. J. (2010). Exploratory and confirmatory factor analysis. In G. R. Hancock & R. O. Mueller (Eds.), Quantitative Methods in the Social and Behavioral Sciences: A Guide for Researchers and Reviewers. Routledge.
Barrera-Barrera, R., Navarro-García, A., & Peris-Ortiz, M. (2015). El papel de la invarianza factorial en la validación del constructo calidad de servicio electrónico. Revista Europea de Direccion y Economia de La Empresa, 24(1), 13–24. https://doi.org/10.1016/j.redee.2014.07.001
Bastarrachea Rodríguez, P. C., Domínguez Castillo, J. G., Vega Cauich, J. I., & Ortega Maldonado, Á. (2023). Design and validation of an instrument to measure digital competence in elementary school students. Publicaciones, 53(1), 247–266. https://doi.org/10.30827/publicaciones.v53i1.28059
Betancur-Chicue, V., Gómez-Ardilla, S. E., Cárdenas-Rodríguez, Y. P., Hernández-Gómez, S. A., Galindo-Cuesta, J. A., & Cadrazco-Suárez, M. A. (2023). Instrumento para la identificación de competencias digitales docentes. Revista Prisma Social, 41, 27–46. https://revistaprismasocial.es/article/view/4970
Bielba Calvo, M., Martínez Abad, F., & Rodríguez Conde, M. J. (2017). Validación psicométrica de un instrumento de evaluación de competencias informacionales en la educación secundaria. Bordón. Revista de Pedagogía, 68(2), 27–43. https://doi.org/10.13042/bordon.2016.48593
Brown, T. A. (2008). Confirmatory Factor Analysis for Applied Research (2nd ed.). The Guilford Press.
Cabero-Almenara, J., Barroso-Osuna, J., Gutiérrez-Castillo, J. J., & Palacios-Rodríguez, A. (2020). Validation of the digital competence questionnaire for pre-service teachers through structural equations modeling. Bordon. Revista de Pedagogía, 72(2), 45–63. https://doi.org/10.13042/Bordon.2020.73436
Cabero-Almenara, J., Gutiérrez-Castillo, J. J., Palacios-Rodríguez, A., & Barroso-Osuna, J. (2020). Development of the teacher digital competence validation of DigCompEdu check-in questionnaire in the University context of Andalusia (Spain). Sustainability (Switzerland), 12(15), 1–14. https://doi.org/10.3390/su12156094
Calvani, A., Cartelli, A., & Ranieri, M. (2008). Models and Instruments for assessing Digital Competence at School. Article in Journal of E-Learning and Knowledge Society. https://doi.org/10.20368/1971-8829/288
Cárdenas Zea, M. P., Sánchez García, E., & Guerra González, C. (2021). La formación de la competencia investigativa mediada por las TIC en el docente universitario. Revista Universidad y Sociedad, 13(6), 51–58.
Castañeda, R., Sifuentes, A. T., Valle, R. M., & García, L. E. (2020). La investigación educativa apoyada en TIC desde la perspectiva de los docentes de la UACyA-UAN. RITI, 8(16), 108–119. https://doi.org/10.36825/riti.08.16.011
Cattell, R. B. (1966). The Scree Test for the number of factors. Multivariate Behavioral Research. Multivariate Behavioral Research, 1(2), 245–276. https://doi.org/10.1207/s15327906mbr0102
Černý, M. (2020). Models of approaches to digital competences. Journal of Technology and Information, 12(2), 47–71. https://doi.org/10.5507/jtie.2020.019
Chan, L. L., & Idris, N. (2017). Validity and Reliability of The Instrument Using Exploratory Factor Analysis and Cronbach’s alpha. International Journal of Academic Research in Business and Social Sciences, 7(10), 400–410. https://doi.org/10.6007/ijarbss/v7-i10/3387
Chen, F. F. (2007). Sensitivity of goodness of fit indexes to lack of measurement invariance. Structural Equation Modeling, 14(3), 464–504. https://doi.org/10.1080/10705510701301834
Clarkson, D. B., & Jennrich, R. I. (1988). Quartic rotation criteria and algorithms. Psychometrika, 53(2), 251–259. https://doi.org/10.1007/BF02294136
Contreras Espinoza, S., & Novoa-Muñoz, F. (2018). Ventajas del alfa ordinal respecto al alfa de Cronbach ilustradas con la encuesta AUDIT-OMS. Revista Panamericana de Salud Pública, 42, 1–6. https://doi.org/10.26633/rpsp.2018.65
Conway, J. M., & Huffcutt, A. I. (2003). A Review and Evaluation of Exploratory Factor Analysis Practices in Organizational Research. Organizational Research Methods, 6(2), 147–168. https://doi.org/10.1177/1094428103251541
Dias-Trindade, S., Moreira, J. A., & Nunes, C. S. (2019). Self-evaluation scale of teachers’ digital competences. Construction and validation procedures. Texto Livre, 12(2), 152–171. https://doi.org/10.17851/1983-3652.12.2.152-171
Díaz Rosabal, E. M., Díaz Vidal, J. M., Gorgoso Vásquez, A. E., Sánchez Martínez, Y., Riverón Rodríguez, G., & Santiesteban Reyes, D. de la C. (2018). Presencia de las Tic en las investigaciones sociales. RITI, 6(11), 19–24. https://doi.org/10.36825/RITI.06.11.004
Dimitrov, D. M. (2010). Testing for factorial invariance in the context of construct Validation. Measurement and Evaluation in Counseling and Development, 43(2), 121–149. https://doi.org/10.1177/0748175610373459
Domingo-Coscollola, M., Bosco, A., Segovia, S. C., & Valero, J. A. S. (2020). Fostering teacher’s digital competence at university: The perception of students and teachers. Revista de Investigacion Educativa, 38(1), 167–182. https://doi.org/10.6018/rie.340551
Escobar-Pérez, J., & Cuervo-Martínez, Á. (2008). Validez de contenido y juicio de expertos: Una aproximación a su utilización. Avances en Medición, 6, 27–36.
Escobedo, M., Hernández, A. J., Estebané, V., & Martínez, G. (2016). Modelos de Ecuaciones Estructurales: Características, fases, construcción, aplicación y resultados. Revista Ciencia y Trabajo, 18(55), 16–22. https://doi.org/10.4067/S0718-24492016000100004
Esteve-Mon, F. M., Gisbert-Cervera, M., & Lázaro-Cantabrana, J. L. (2016). La competencia digital de los futuros docentes: ¿Cómo se ven los actuales estudiantes de educación? Perspectiva Educacional, 55(2), 38–54. https://doi.org/10.4151/07189729-vol.55-iss.2-art.412
Ferrando, P. J., & Lorenzo-Seva, U. (2016). A note on improving EAP trait estimation in oblique factor - analytic and item response theory models. Psicológica, 37(2), 235–247.
Forero, C. G., Maydeu-Olivares, A., & Gallardo-Pujol, D. (2009). Factor Analysis with Ordinal Indicators: A Monte Carlo Study Comparing DWLS and ULS Estimation. Structural Equation Modeling: A Multidisciplinary Journal, 16(4), 625–641. https://doi.org/10.1080/10705510903203573
Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.2307/3151312
Guillén-Gámez, F. D., Gómez-García, M., & Ruiz-Palmero, J. (2024). Digital competence in research work: predictors that have an impact on it according to the type of university and gender of the Higher Education teacher. Pixel-Bit, Revista de Medios y Educacion, 69, 7–34. https://doi.org/10.12795/pixelbit.99992
Guillén-Gámez, F. D., & Mayorga-Fernández, M. J. (2021a). Design and validation of an instrument of self-perception regarding the lecturers’ use of ICT resources: to teach, evaluate and research. Education and Information Technologies, 26(2), 1627–1646. https://doi.org/10.1007/s10639-020-10321-1
Guillén-Gámez, F. D., & Mayorga-Fernández, M. J. (2021b). Design and validation of an instrument of self-perception regarding the lecturers’ use of ICT resources: to teach, evaluate and research. Education and Information Technologies, 26(2), 1627–1646. https://doi.org/10.1007/s10639-020-10321-1
Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. (2010). Multivariate Data Analysis [Análisis de datos multivariados] (7h ed.). Pearson Education.
Hogarty, K. Y., Hines, C. V., Kromrey, J. D., Perron, J. M., & Mumford, A. K. R. (2005). The quality of factor solutions in exploratory factor analysis: The influence of sample size, communality, and overdetermination. Educational and Psychological Measurement, 65(2), 202–226. https://doi.org/10.1177/0013164404267287
Hu, L. T., & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: onventional criteria versus new alternatives. Structural Equation Modeling, 6(1), 1–55. https://doi.org/10.1080/10705519909540118
Indah, R. N., Toyyibah, Budhiningrum, A. S., & Afifi, N. (2022). The Research Competence, Critical Thinking Skills and Digital Literacy of Indonesian EFL Students. Journal of Language Teaching and Research, 13(2), 315–324. https://doi.org/10.17507/jltr.1302.11
Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado. (2017). Marco Común de Competencia Digital Docente. INTEF.
Instituto Peruano de Economía. (2023). Índice de Competitividad Regional. Incore.
Katayev, Y., Saduakas, G., Nurzhanova, S., Umirbekova, A., Ospankulov, Y., & Zokirova, S. (2023). Analysis of Teachers’ Research Competencies, Scientific Process Skills and the Level of Using Information and Communication Technologies. International Journal of Education in Mathematics, Science and Technology, 11(5), 1184–1203. https://doi.org/10.46328/ijemst.3613
Kline, P. (2014). An Easy Guide to Factor Analysis. Routledge. https://doi.org/10.4324/9781315788135
Koehler, M. J., Mishra, P., & Cain, W. (2015). ¿Qué son los Saberes Tecnológicos y Pedagógicos del Contenido (TPACK)? Virtualidad, Educación y Ciencia, 6(10), 9–23. https://doi.org/10.60020/1853-6530.v6.n10.11552
Lagunes, A. (2016). La competencia investigadora en universitarios mediante el Blended Learning y el Flipped Classroom. In Estrategias de investigación socioeducativas: propuestas para la educación superior. (pp. 95–106). Editorial Centro de estudios e investigaciones.
Li, C. H. (2016). Confirmatory factor analysis with ordinal data: Comparing robust maximum likelihood and diagonally weighted least squares. Behavior Research Methods, 48(3), 936–949. https://doi.org/10.3758/s13428-015-0619-7
Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A., & Tomás-Marco, I. (2014). El análisis factorial exploratorio de los ítems: Una guía práctica, revisada y actualizada. Anales de Psicologia, 30(3), 1151–1169. https://doi.org/10.6018/analesps.30.3.199361
Lorenzo-Seva, U., & Ferrando, P. J. (2006). FACTOR: A computer program to fit the exploratory factor analysis model. Behavior Research Methods, 38(1), 88–91. https://doi.org/10.3758/BF03192753
Mavrou, I. (2015). Análisis factorial exploratorio: cuestiones conceptuales y metodológicas. Revista Nebrija de Linguística Aplicada a La Enseñanza de Las Lenguas, 19, 71–80. https://doi.org/10.26378/rnlael019283
Mena, M., & Lizenberg, N. (2015). Desarrollo de Competencias Investigadoras en la Sociedad Red. Revista de Educación a Distancia, 38, 1–10.
Ministerio de Educación. (2018). Marco del Buen Desempeño Docente. Minedu.
Paz Saavedra, L. E., & Fierro Marcillo, Y. del P. (2015). Competencias investigativas en los docentes beneficiados por la estrategia de formación y acceso para la apropiación pedagógica de las TIC. Tendencias, 16(1), 175–194. https://doi.org/10.22267/rtend.151601.39
Pedrosa, I., Suárez Álvarez, J., & García Cueto, E. (2014). Evidencias sobre la Validez de Contenido: Avances Teóricos y Métodos para su Estimación. Acción Psicológica, 10(2), 3–20. https://doi.org/10.5944/ap.10.2.11820
Ramírez-Armenta, M. O., García-López, R. I., & Edel-Navarro, R. (2021). Validation of a scale to measure digital competence in graduate students. Formacion Universitaria, 14(3), 115–126. https://doi.org/10.4067/S0718-50062021000300115
Restrepo-Palacio, S., & Segovia Cifuentes, Y. M. (2020). Diseño y validación de un instrumento de evaluación de la competencia digital en Educación Superior. Ensaio: Avaliação e Políticas Públicas Em Educação, 28(109), 932–961. https://doi.org/10.1590/S0104-40362020002801877
Rodríguez, M. U., Cantabrana, J. L. L., & Cervera, M. G. (2021). Validation of a tool for self-evaluating teacher digital competence. Educacion XX1, 24(1), 353–373. https://doi.org/10.5944/educXX1.27080
Rubio, M. J., Torrado, M., Quirós, C., & Valls, R. (2018). Autopercepción de las competencias investigativas en estudiantes de último curso de pedagogía de la universidad de barcelona para desarrollar su trabajo de fin de grado. Revista Complutense de Educación, 29(2), 335–354. https://doi.org/10.5209/RCED.52443
Sánchez, A., Lagunes, A., Torres, C., Judikis, J., & López, F. (2019). Exploratory Factor Analysis of a Digital Competency Questionnaire for Research. In P. Ruiz & V. Agrego-Delgado (Eds.), Communications in Computer and Information Science (pp. 189–210). Springer Nature Switzerland. https://doi.org/10.1007/978-3-030-37386-3_29
Schwarz, G. (1978). Estimating the dimension of a model. Annals of Statistics, 6(3), 461–464. https://doi.org/10.1214/aos/1176344136
Silva-Quiroz, J. E., Abricot-Marchant, N., Aranda-Faúndez, G., & Rioseco-París, M. (2022). Design and Validation of an instrument to evaluate digital competence in first-year students of education majors from three public universities in Chile. Edutec, 79, 319–335. https://doi.org/10.21556/edutec.2022.79.2333
Syahrial, S., Kurniawan, D. A., Asrial, A., Sabil, H., Maryani, S., & Rini, E. F. S. (2022). Professional teachers: Study of ICT capabilities and research competencies in urban and rural? Cypriot Journal of Educational Sciences, 17(7), 2247–2261. https://doi.org/10.18844/cjes.v17i7.7590
Timmerman, M. E., & Lorenzo-Seva, U. (2011). Dimensionality assessment of ordered polytomous items with parallel analysis. Psychological Methods, 16(2), 209–220. https://doi.org/10.1037/a0023353
Touron, J., Martin, D., Navarro Asencio, E., Pradas, S., & Inigo, V. (2018). Validation de constructo de un instrumento para medir la competencia digital docente de los profesores (CDD). Revista Espanola de Pedagogía, 75(269), 25–54. https://doi.org/10.22550/REP76-1-2018-02
Vega-Ramírez, J. F. A. (2023). Investigación Educativa como área de desarrollo docente. Estudios Pedagógicos, 49(2), 7–11. https://doi.org/10.4067/S0718-07052023000200007
Velásquez Cortés, S., & Veytia Bucheli, M. G. (2022). Validation of an instrument to measure perceptions of digital competences in teachers. Human Review. International Humanities Review, 15(3), 2–12. https://doi.org/10.37467/revhuman.v11.4250
Velicer, W. F., & Fava, J. L. (1998). Affects of variable and subject sampling on factor pattern recovery. Psychological Methods, 3(2), 231–251. https://doi.org/10.1037//1082-989x.3.2.231
Ventura-León, J. L. (2017). Intervalos de confianza para coeficiente Omega: Propuesta para el cálculo. Adicciones, 30(1), 77. https://doi.org/10.20882/adiccion
Notas de autor
Contribución del autor (GCQ): Elaboró el proyecto, recolectó y procesó los datos, redactó y realizó la revisión final.
Declaración de conflicto de intereses (GCQ): El autor expresa que no hay conflictos de intereses al redactar el artículo.
Contribución de la autor (PRMNC): Elaboró la metodología, realizó la redacción, la recolección de datos y la revisión final.
Declaración de conflicto de intereses (PRMNC): La autora expresa que no hay conflictos de intereses al redactar el artículo.
Contribución de la autora (BDLC): Elaboró la metodología, realizó la redacción, la revisión final, la maquetación y la diagramación.
Declaración de conflicto de intereses (BDLC): La autora expresa que no hay conflictos de intereses al redactar el artículo.
Contribución de la autora (CBFR): Elaboró la metodología, realizó la redacción y la revisión final.
Declaración de conflicto de intereses (CBFR): La autora expresa que no hay conflictos de intereses al redactar el artículo.
Información adicional
redalyc-journal-id: 916
Enlace alternativo
https://revistaseug.ugr.es/index.php/RELIEVE/article/view/29832 (html)