Secciones
Referencias
Resumen
Servicios
Descargas
HTML
ePub
PDF
Buscar
Fuente


Estudio cuantitativo multidimensional de la experiencia de evaluación 360 encuestada en prácticas de ingeniería industrial
Multidimensional quantitative analysis of 360-degree feedback surveyed in practical industrial engineering sessions
Estudo quantitativo multidimensional da experiência de avaliação 360 inquirida em aulas práticas de engenharia industrial
对工业工程实践进行的360度评估调查的多维度定量研究
دراسة كمية متعددة الأبعاد لتجربة تقييم 360 التي تم مسحها في ممارسات الهندسة الصناعية
RELIEVE. Revista Electrónica de Investigación y Evaluación Educativa, vol. 29, núm. 1, 2023
Universidad de Granada


Recepción: 12 Julio 2022

Aprobación: 15 Abril 2023

Publicación: 29 Junio 2023

DOI: https://doi.org/10.30827/relieve.v29i1.25356

Financiamiento

Fuente: Vicerrectorado de Personal Docente e Investigador de la Universidad de Málaga.

Beneficiario: Proyecto de Innovación Educativa PIE19-032

Resumen: La iniciativa y la proactividad del alumnado durante el desarrollo de las clases en ingeniería es normalmente muy limitada. No obstante, a diferencia de en clases teóricas, el alumnado suele mostrar mayor interés en las prácticas de laboratorio de las asignaturas. Debido a que el aumento del abandono en las carreras de ingeniería, así como la disminución de matriculados, es un hecho que se viene observando con cada vez más frecuencia, este estudio tiene como fin el analizar cuantitativamente el impacto de una herramienta de evaluación 360 grados encuestada en la evaluación de prácticas, en distintos grupos estudiantiles de la rama de la ingeniería industrial. Con esto se pretende lograr varios objetivos: por un lado, implicar al estudiante en el proceso de evaluación y, por otro, conocer su grado de satisfacción de distintos grupos con la evaluación 360 grados, así como su opinión sobre la ponderación justa de cada evaluación. Para ello, se presenta una metodología basada en la aplicación de la evaluación 360 grados y un diseño de encuesta con 23 preguntas. Las etapas del proceso de evaluación 360 grados fueron tres: co- (entre estudiantes), auto- (por el propio estudiante) y hetero-evaluación (por el docente). Inicialmente, se diseñó un cuestionario, validado mediante análisis factorial confirmatorio, y se procedió al análisis de las respuestas en base a 4 agrupaciones seleccionadas: dos asignaturas de primeros y últimos cursos, modalidad de evaluación, sexo (hombre o mujer) y ciclo (Grado o Máster). También se ha analizado la mejor ponderación en la calificación final para cada evaluador, proponiéndose como óptimos los valores 50%-30%-20% para la hetero-, co- y autoevaluación, respectivamente. Adicionalmente, los resultados arrojaron un elevado grado de satisfacción por parte de los grupos analizados a través de la encuesta y reflejando la maduración del estudiante.

Palabras clave: Encuesta, satisfacción, análisis factorial confirmatorio, ingeniería industrial.

Abstract: Initiative and proactiveness shown by students during engineering lectures is usually very limited. However, unlike in theoretical lectures, students usually show high levels of interest in practical laboratory sessions. In order to address increasing dropout from engineering courses, as well as decreased enrollment, the present study aims to quantitatively analyze the impact of a 360-degree feedback survey for evaluating practical sessions. Analysis was conducted overall and as a function of different groupings in industrial engineering students. The aim of this was to address a number of objectives. Firstly, the study aimed to engage students in the evaluation process and, secondly, identify satisfaction with 360-degree feedback as a function of different groupings, whilst, at the same time, gathering opinions about the fairness of each evaluation type. To this end, a methodology based on the application of 360-degree feedback was applied and a 23-question survey was administered. The following three stages were followed for the 360-degree feedback evaluation process: co- (between students), self- (the student themself) and hetero-evaluation (lecturer). Initially, a questionnaire was designed and validated using confirmatory factor analysis. Responses were analyzed as a function of 4 groups: module (one first- and one third-year module), evaluation type, sex (male or female) and degree level (BSc or MSc). The most appropriate weighting to be applied to each evaluation in order to produce a final overall score was also analysed. This suggested optimal values ​​of 50%, 30% and 20% for the hetero-, co- and self-evaluations, respectively. Additionally, outcomes revealed a high degree of satisfaction for all analysed groupings and pointed to a high level of maturity in participating students.

Keywords: Survey, satisfaction, confirmatory factor analysis, industrial engineering.

Resumo: A iniciativa e a proatividade dos alunos durante as aulas de engenharia são geralmente muito limitadas. No entanto, ao contrário do que acontece nas aulas teóricas, os alunos tendem a mostrar mais interesse pelas práticas laboratoriais das disciplinas. Dado que o aumento de desistências nos cursos de engenharia, bem como a diminuição de matrículas, é um facto que se tem vindo a observar com cada vez mais frequência, este estudo tem como objetivo analisar quantitativamente o impacto de uma ferramenta de avaliação de 360 graus inquirida na avaliação de aulas práticas, em diferentes grupos de estudantes no ramo da engenharia industrial. Pretende-se, assim, atingir vários objetivos: por um lado, envolver o estudante no processo de avaliação e, por outro, conhecer o seu grau de satisfação de diferentes grupos com a avaliação de 360 graus, bem como a sua opinião sobre a ponderação justa de cada avaliação. Para isso, apresenta-se uma metodologia baseada na aplicação da avaliação de 360 graus e a elaboração de um questionário com 23 perguntas. As fases do processo de avaliação de 360 graus eram três: co- (entre estudantes), auto- (pelo próprio estudante) e heteroavaliação (pelo docente). Inicialmente, foi elaborado um questionário, validado por análise fatorial confirmatória, e procedeu-se à análise das respostas com base em 4 grupos selecionados: duas disciplinas dos primeiros e últimos anos, modo de avaliação, sexo (masculino ou feminino) e ciclo (Licenciatura ou Mestrado). Foi também analisada a melhor ponderação na nota final para cada avaliador, propondo-se como ótimos os valores 50%-30%-20% para a hetero-, co- e autoavaliação, respetivamente. Além disso, os resultados revelaram um elevado grau de satisfação por parte dos grupos analisados através do questionário, o que reflete a maturidade do estudante.

Palavras-chave: Questionário, satisfação, análise fatorial confirmatória, engenharia industrial.

摘要: 在工程课上,学生表现出来的主动性和积极性往往不高。但跟理论课相反,在学科实验课上学生常常表现出更多的兴趣。考虑到工程专业逐年提升的弃学率,和逐年下降的注册率,该研究希望对一测量工具的影响进行定量分析。该工具可以在360度的范围内对工业工程专业的不同学生群体进行实践评估,以此来达成以下目标:一让学生参与到评估过程;二通过360度评估了解不同群体的满意度以及他们对每项评估权重的意见。为了实现上述目标,研究使用360度评估方法和包含23个问题的问卷调查。360度评估过程分为三个阶段:相互评估(学生与学生之间)、自我评估(由学生自己进行)和异体评估(由老师进行)。首先设计了一个通过验证性因素分析的问卷,然后对问卷答案进行分析。我们将答案分成四组:低年级和高年级的两门课程、评估类型、性别(男或女)以及学历周期(本科或研究生)。除此之外我们还对每项评估员最终打分的最优权重进行了分析,提出异体、相互和自我评估阶段的最佳值为50%、30%和20%。最后问卷结果还显示出不同分析群体的满意度都很高,这也一定程度上反映了学生的成熟度。

關鍵詞: 问卷, 满意度, 验证性因素分析, 工业工程.

ملخص: عادة ما تكون مبادرة الطلاب واستباقيتهم أثناء تطوير فصول الهندسة محدودة للغاية. ومع ذلك, على عكس الفصول النظرية, يُظهر الطلاب عادةً اهتمامًا أكبر بالممارسات المختبرية للموضوعات. نظرًا لأن الزيادة في عدد المتسربين من الدورات الهندسية ، فضلاً عن انخفاض الالتحاق, هي حقيقة يتم ملاحظتها أكثر فأكثر, تهدف هذه الدراسة إلى التحليل الكمي لتأثير أداة تقييم 360 درجةفي تقييم الممارسات, في مجموعات طلابية مختلفة لفرع الهندسة الصناعية. وبهذا, فإن الهدف من ذلك هو تحقيق العديد من الأهداف: من ناحية, إشراك الطالب في عملية التقييم, ومن ناحية أخرى, معرفة درجة رضاهم عن المجموعات المختلفة بالتقييم 360 درجة, وكذلك رأي حول الترجيح العادل لكل تقييم. لهذا, يتم تقديم منهجية تستند إلى تطبيق التقييم 360 درجة وتصميم المسح مع 23 سؤالا. كانت هناك ثلاث مراحل من عملية التقييم بزاوية 360 درجة: مشتركة( بين الطلاب)ذاتي( من قبل الطالب نفسه) وتقييم غير متجانسة( من قبل المعلم). في البداية ، تم تصميم استبيان ، والتحقق من صحته من خلال تحليل عامل التأكيد, وتم تحليل الردود على أساس 4 مجموعات مختارة: موضوعان من العامين الأول والأخير, وطريقة التقييم, والجنس( ذكر أو أنثى) والدورة( الدرجة أو الماجستير). تم أيضًا تحليل أفضل ترجيح في الدرجة النهائية لكل مقيِّم, واقتراح القيم المثلى من 50٪ -30٪ -20٪ للتقييم غير المتجانسة, والمشاركة, والتقييم الذاتي, على التوالي. بالإضافة إلى ذلك, أظهرت النتائج درجة عالية من الرضا من جانب المجموعات التي تم تحليلها من خلال الاستبيان وتعكس نضج الطالب.

الكلمات المفتاحية: مسح, رضا, تحليل عامل التأكيد, الهندسة الصناعية.

Introducción

El proceso de evaluación tiene como objetivo básico (esencial) contribuir a promover una mejor preparación de los futuros profesionales, que los capacite para responder a las incertidumbres del futuro. Por ello, la evaluación constituye uno de los elementos clave del diseño curricular, siendo el proceso mediante el cual se constata y se verifica el grado de cumplimiento de los objetivos marcados en los diferentes procesos de formación. Cualquier proceso de enseñanza-aprendizaje debe llevar asociado un procedimiento que identifique el grado de consecución de los aprendizajes significativos adquiridos.

El término evaluación conlleva múltiples factores de diversa índole, de ahí que existan numerosas definiciones con diferentes connotaciones. Como referencia histórica significativa se encuentra Ralpf Tyler (Tyler, 1942), autor del primer método sistemático de evaluación educacional durante los años 30 y 40 en la Universidad del Estado de Ohio. El método considera que “el proceso de evaluación es esencialmente el proceso de determinar hasta qué punto los objetivos educativos han sido actualmente alcanzados mediante los programas y currículos de enseñanza”. En este sentido el proceso requiere diferentes fases que comienzan con el establecimiento y ordenación de los objetivos establecidos, y finaliza con la recopilación y contrastación de los datos del trabajo con los niveles de logro alcanzados. Modelo vigente y aplicado durante décadas en el sistema educativo como herramienta esencial para los equipos docentes, sin embargo, no integra los intereses y actitudes del alumnado, ni la propia evaluación del sistema de aprendizaje, únicamente se centra en logros y rendimiento académico. Glass y Ellet (1980) y Wortman (1983), concibieron un concepto más amplio aportando versatilidad y flexibilidad, al introducir modalidades y formas: “Un conjunto de actividades teóricas y prácticas, pero sin un paradigma generalmente aceptado, con gran variedad de modelos y donde se aprecian distintas modalidades y formas, consideradas como idóneas para evaluar”.House (1993) introduce un componente social y ético, pasando de ser una actividad a tiempo parcial desarrollada por académicos, a una actividad profesionalizada integrada a lo largo de todo el proceso docente en sus dos vertientes: (1) hacia el alumnado y, (2) hacia el propio programa o método de gestión docente.

La proliferación de modelos evaluativos durante la década de los 80 y 90 denota el crecimiento y complejidad en los procesos de evaluación, existiendo diferencias sustanciales entre distintos autores. En Bravo Arteaga et al. (2000) se resumen las críticas citadas con mayor frecuencia sobre modelos tradicionales de evaluación: Miden solo conocimiento declarativo y no procedimental (Mehrens, 1992); Se centran en el resultado y no en el proceso (Mumford, Baughman, Supinski y Andersen, 1998); No cubren adecuadamente el dominio evaluado (Mehrens, 1992); Existen diferentes habilidades e incluso inteligencias que no son evaluadas (Powell, 1990); Se alejan de las verdaderas demandas contextuales (Mumford, Baughman, Supinski y Anderson, 1998). Estas críticas se basan en que las personas no son todas iguales, no alcanzan los objetivos de la misma forma, sus ritmos de aprendizaje, estilos y necesidades son diferentes, de ahí que los modelos de evaluación recientes, basados en la adquisición de competencias, busquen evidencias y valoraciones sobre el progreso del estudiante según unos resultados de aprendizaje esperados. El alumnado debe pasar, por tanto, de ser un sujeto pasivo, receptor de hechos y reglas, a un sujeto activo que organiza y estructura sus propios conocimientos a través de un seguimiento continuo y sistemático de sus logros y dificultades. Por todo esto, en la experiencia docente que aquí se presenta, el alumnado adquiere un papel importante en el proceso de evaluación de las prácticas de las asignaturas en las que se aplicó la experiencia, pasando su opinión a formar parte de la evaluación final.

Esta experiencia se ha aplicado en asignaturas de la rama industrial en una escuela de ingeniería y con la que se ha tratado de alcanzar los objetivos que más abajo se describen. Además, en los últimos años se está observando una preocupante disminución del número de alumnado matriculado en ingenierías, tal y como han informado numerosos medios de información (Silió, 2019; Stegmann, 2019; Servimedia, 2019), llegando a caer hasta un 30% en los últimos 20 años (Silió, 2019). Entre todas las causas posibles, una de las más llamativas es que el mundo laboral no es capaz de compensar en condiciones laborales la dificultad implícita en este tipo de titulaciones (Servimedia, 2019), como se ha indicado en estudios por otros autores, centrados en la determinación del nivel de eficiencia en ingenierías en España (Castillo-Martín, 2021), entendida tal como la combinación entre términos de rentabilidad (empleabilidad, salario, satisfacción e implicación) y esfuerzo (media años de estudio, coste de los estudios y notas medias). Otro hecho llamativo que refleja el problema es una elevada tasa de abandono, la cual suele ser más alta Ingeniería y Arquitectura (López-Cózar-Navarro et al., 2020). La Conferencia de Rectores de las Universidades Españolas (CRUE) publicó una impactante tasa de abandono en Ingeniería y Arquitectura del 22% en el curso 2017-2018 (Hernández & Pérez, 2019).

Esta problemática evidencia que es muy necesario encontrar alternativas que hagan los estudios de ingeniería más atractivos para el estudiantado, sin perder calidad formativa, para poder seguir generando ingenieros e ingenieras competentes a la par que se logra que el estudiantado aprenda sin generar frustración. Numerosos estudios han identificado el grado de satisfacción del alumnado como un reclamo para la matriculación, disminución del absentismo y retención de estudiantes (Schertzer& Schertzer, 2004, Rodríguez et al, 2003). Algunos estudios que analizan la tasa de abandono indican que, para disminuir la deserción estudiantil, tiene un importante impacto el realizar un análisis personalizado de las necesidades de aprendizaje del alumnado a lo largo de sus estudios, así como involucrándole en aprendizaje activo e innovador en el aula (López-Cózar-Navarro et al., (2020); García et al., 2016). Es, por tanto, razonable pensar que un proceso de evaluación en el que también se implique al evaluado y se le dé voz tenga buena acogida entre el estudiantado, ya que el aumento de la participación en clase, interacción con el profesorado y la realización de actividades alternativas tiene impacto positivo en la disminución de la tasa de abandono (García et al., 2016). En este sentido, la evaluación por pares se identifica con el factor que más influye en la mejora de algunas capacidades, como el trabajo en equipo (Petkova et al., 2021). Inicialmente, pueden plantearse algunas reservas respecto a esta metodología, como la variabilidad en la evaluación por parte del estudiantado o la falta de capacitación del mismo. Por ejemplo, en (Martin y Locke, 2022) se muestra que la evaluación por pares refleja consenso. En (Mumpuni et al., 2022) se defiende que este tipo de evaluación es objetiva, basándose en resultados de su estudio.

La idea del estudio que aquí se presenta es poder extraer el máximo beneficio posible de la evaluación de las prácticas del alumnado (y, por ende, de la asignatura a evaluar). Además de su propia evaluación y la del docente, los participantes realizan una evaluación entre pares (peer), considerándose esta una visión de 360 grados del proceso de enseñanza-aprendizaje. Es lo que se conoce como “Evaluación 360 grados” (o más comúnmente en inglés como 360 degree feedback). En la Figura 1 se muestra un diagrama comparativo entre la evaluación clásica y la evaluación 360 grados anteriormente explicada.

En el presente manuscrito se propone un proceso de evaluación 360, el cual ha sido evaluado teniendo en cuenta una serie de agrupaciones de gran relevancia, como son el estudio de su aplicación según sexo de los participantes, su madurez según el curso al que pertenecen, o la metodología de evaluación de las prácticas en la asignatura. El desarrollo de este estudio permite obtener valiosas respuestas en función de esas agrupaciones, pudiendo identificar debilidades y fortalezas del método 360 para cada uno de esos “colectivos académicos”.


Figura 1.
(a) Evaluación clásica o estándar; (b) Evaluación 360 grados.

Para poder aplicar la evaluación, es necesario disponer de unos criterios y niveles de logro (rúbricas) con los que se cuantificará la evaluación. En el presente estudio, además se intentará extraer información acerca de la satisfacción de los distintos grupos analizados para poder personalizar aún más las rúbricas, pudiendo hacerles partícipes del estudio. Según numerosos autores (e.g. Lévy-Leboyer, 2004; Bizquerra et al., 2006), la evaluación de las competencias de una persona se basa en distintas fuentes y se divide en tres fases:

1. Hetero-evaluación (docente). Método tradicional en la que el profesorado evalúa la tarea. Para evitar la disparidad evaluativa, se busca una igualdad de criterios en la evaluación entre las tres opciones mediante el uso de exactamente la misma rúbrica en las tres evaluaciones que se realizan en la evaluación 360 (Mertler, 2001). En Basurto-Mendoza et al., (2021) indican que este tipo de evaluación “sostiene, dirige, acompaña y refuerza” a los demás métodos de evaluación. Por ejemplo, una desviación grande entre las demás evaluaciones y la hetero-evaluación mostraría una baja objetividad evaluadora en la corrección por parte de los estudiantes.

2. Auto-evaluación. El estudiante valora su propia tarea según la rúbrica proporcionada. Busca, entre otras cosas, conocer y valorar los aprendizajes propios para, a partir de ahí, juzgar y mejorar el desempeño. Se ha demostrado que este proceso suele tener gran impacto en el aprendizaje del alumnado (Martínez-Figueira et al., 2013). Es importante disponer de la misma rúbrica que en las demás evaluaciones para poder evitar y cuantificar posibles sesgos en la evaluación debido a factores subjetivos en la autopercepción (Basurto-Mendoza et al., 2021).

3. Co-evaluación. Otro individuo o grupo de individuos valora la tarea del compañero sobre el que se centra el proceso de evaluación siguiendo los criterios de la rúbrica. Esta fase potencia el desarrollo del pensamiento crítico para analizar y entender el trabajo de los compañeros (Hanrahan & Isaacs, 2001) fomentando además un aprendizaje durante el desarrollo de la coevaluación, alejándose de un trabajo y aprendizaje individualizado (Boud et al., 2009). Según Vivanco-Álvarez & Pinto-Vilca (2018), este tipo de estrategia aumenta, además, la motivación en el proceso de autoaprendizaje del alumno, pues, la evaluación del desempeño pasa de ser una herramienta de control a ser una herramienta de información útil.

Este modelo de evaluación alternativo pretende fomentar la participación, transparencia, homogeneidad e imparcialidad en la fase de evaluación. El proceso finaliza estableciendo la calificación ponderada sobre las aportadas en cada una de las fases descritas anteriormente. En este trabajo se propone una metodología y encuesta particular de evaluación, bajo la premisa de evaluación por competencias y enseñanza semipresencial, ensayada en prácticas científico-tecnológicas basada en el método 360 grados. Este método se ha implementado en diferentes titulaciones pertenecientes a Grado y Máster de la rama industrial y adscritas a la Escuela de Ingenierías Industriales de la Universidad de Málaga. Se aspira así, con la presente metodología, a estimular la actitud del estudiante participando en la fase del proceso educativo en la que tradicionalmente no se le permite actuar, interactuando con el docente y resto de estudiantado en determinadas etapas del proceso de evaluación en las que se establecen instrumentos y criterios de evaluación, corrección y calificación.

Método

Motivación y Objetivos

La implantación de la metodología de evaluación 360 grados aquí propuesta tiene una serie de objetivos desde un punto de vista didáctico y desde un punto de vista de investigación. Los objetivos didácticos que se persiguen son los siguientes:

· Establecer un análisis acerca de cómo influye esta metodología en diferentes grupos, como son los ciclos (Grado y Master), sexo (hombre o mujer) y según sistema de evaluación (gamificación, memoria de prácticas y presentación oral). Encontrar, asimismo, un vínculo entre esto y un posible aumento de participación y motivación del alumnado en su proceso de aprendizaje, proporcionándole herramientas que le permitan comparar su desempeño con el de los compañeros, pasando a ser la evaluación una herramienta de información útil y no meramente de control y que además permita entender el papel del evaluador (Vivanco-Álvarez & Pinto-Vilca, 2018, Boud et al., 2009; López-Cózar-Navarro et al., 2020).

· Análisis de respuestas cuantitativas acerca de la ponderación que el alumnado considera más justa en la evaluación de las prácticas, lo cual permite un mejor aprovechamiento de las rúbricas como elemento de aprendizaje (Blanco 2008; Etxabe et al., 2011; Martínez-Figueira et al., 2013).

Por otra parte, desde un punto de vista más investigador e innovador, los objetivos que se persiguen son:

· Validación de la encuesta de satisfacción de la evaluación 360 mediante un proceso formal (Análisis Factorial Confirmatorio) para su potencial uso de forma frecuente en las demás asignaturas de la rama industrial.

· Observar y analizar cuantitativamente la discrepancia identificable en el análisis de los distintos grupos, así como en la interacción entre los tres actores (evaluación del docente, autopercepción del alumno y percepción de otro compañero). Proponer mejoras a esas deficiencias encontradas.

Aunque ambos bloques respondan a cuestiones de manera aislada, finalmente terminarán dando respuestas a la cuestión común de cómo de efectivo es el método de evaluación aquí analizado, tanto para el estudiantado general como para las agrupaciones que se analizarán a continuación.

Participantes

Las asignaturas de aplicación se impartieron en los cursos 19-20 y 20-21. Todas ellas pertenecen a Grado o Máster de la rama de ingenierías y correspondientes a asignaturas de diferentes áreas (eléctrica, robótica, fluidos, mecánica, electrónica, fabricación industrial, física aplicada). El curso en que se imparte, así como el número de estudiantes matriculados en cada curso, se muestran en la Tabla 1.

Tabla 1
Asignaturas y número de estudiantes en los dos cursos en que se ha llevado a cabo la evaluación 360 en Grado (nº 1,2,4,5 y 7) y Máster (nº 3 y 6).

La distribución de la muestra se presenta en la Tabla 2. Los participantes conforman una muestra de un total de 153 registros, donde se puede observar que la distribución grupal de datos por sexo y ciclo corresponde con lo esperado: aproximadamente un 30% de mujeres en frente a un 70% de hombres y una ratio de un estudiante de Máster con respecto a nueve de Grado (ambas estadísticas prácticamente idénticas a los porcentajes publicados por Ministerio de Universidades (2019) en el curso 2019/2020).

Tabla 2
Características de la muestra

Diseño del cuestionario

El cuestionario consta de una serie de preguntas con el objetivo de abarcar diferentes grupos de preguntas que sean lo suficientemente representativas de todas las posibles dimensiones esperables de un estudio de satisfacción. Es decir, tiene como finalidad evaluar diversos aspectos relacionados con la adaptación (Baker y Siryk, 1984), la motivación (Tuan et al., 2005), la satisfacción del alumno (Douglas et al., 2006); y adquisición de habilidades/aprendizaje (Alarcon et al., 2017). En la encuesta se anotaron diferentes bloques de posibles preguntas de la misma forma que Santos-Pastor et al. (2020). Considerando que el propósito de este trabajo es probar la efectividad de la encuesta para comprobar la satisfacción de los estudiantes con el método 360 en asignaturas industriales, se decide crear bloques o dimensiones que contengan diferentes respuestas a las preguntas interesantes de este tipo de indagación. El objetivo principal es comprender el grado de beneficio y satisfacción individual con este novedoso enfoque. Este tipo de preguntas de evaluación individual se encuentran en muchos cuestionarios (Santos-Pastor et al., 2020; Casero-Martínez, 2008), logrando medir con precisión la satisfacción de los estudiantes. La búsqueda de una batería de preguntas de esta índole da lugar al bloque de preguntas orientadas a la calidad de la formación en un grupo de autoevaluación individual (1-Evaluación personal). Por otro lado, dado que es un método de evaluación, es importante conocer las impresiones de los estudiantes sobre los estándares que subyacen al método de evaluación. Estas preguntas son de vital importancia, porque las calificaciones son irrelevantes para quienes están siendo calificados si los criterios determinados no son justos. Casero-Martínez (2008) ya advirtió sobre esto, indicando que la imparcialidad de la evaluación es importante para los estudiantes, al igual que la oportunidad de intervenir para corregir las rúbricas (si no siguen los estándares, la intención de esa intervención es importante). Así pues, pedir opinión acerca de los criterios de evaluación es una pregunta recurrente en un cuestionario de evaluación (González López & López Cámara, 2010), y en el diseño actual del cuestionario se agrupan en un determinado bloque (2-Criterios). Asimismo, el estudiante puede sentir una falta de afinidad subjetiva entre él y el profesorado, lo que de alguna manera puede reflejarse en la valoración heterogénea. Todas estas cuestiones relacionadas con la objetividad se agrupan en la dimensión 3-Objetividad evaluación. Como además es importante saber si los estudiantes han mejorado su comprensión de cómo funciona un sistema de evaluación a través de esta experiencia, así como su impacto en el proceso de enseñanza-aprendizaje y desarrollo de una actitud crítica y responsable, se ha generado la dimensión 4-Aprendizaje experiencia en concordancia con las directrices de Basurto-Mendoza et al., (2021). Finalmente, existe una quinta batería de preguntas, de tipo porcentual, que corresponden a la ponderación que cada estudiante piensa que es más justa (5-Ponderación de evaluaciones). Estas respuestas nos resultan útiles para poder apreciar cómo habría determinado el alumno el peso de las evaluaciones, y poder sacar conclusiones de manera conjunta con las respuestas “rígidas” de las cuestiones anteriores.

Métodos de evaluación utilizados en el análisis de Evaluación 360

Cada asignatura posee unas características intrínsecas que hacen que el método de evaluación elegido sea uno tal que maximice la justicia de la evaluación. En total, se utilizaron tres modalidades distintas:

· Memorias de prácticas de laboratorio. Tras entregar la memoria de prácticas, ésta es evaluada inicialmente por un compañero (co-evaluación), y posteriormente, el alumno realizaría la auto-evaluación de su propio trabajo. La ponderación sobre la nota final fue: 50% la hetero-evaluación, un 30% la co-evaluación y un 20% la auto-evaluación. Las asignaturas implicadas en esta metodología fueron las asignaturas: #1, #2, #4 y #5 (ver Tabla 1).

· Gamificación. La asignatura implicada en esta metodología fue únicamente la #7 (Procesos Industriales). Esta asignatura tiene materia teórica diferente que estudiar y comprender, y al alumno se le hace muy difícil estudiar todo en tan poco tiempo de cara a las prácticas. El juego o gamificación es un incentivo para llevar preparados los bloques, previo a las prácticas, generando un ambiente de competición entre equipos que se lanzarán preguntas los unos a los otros (es posible generar gran cantidad de subdivisiones dado el gran número de alumnos típicamente en estas asignaturas). Esta competición es real, pues según el orden en que queden al final del cuatrimestre, se les asigna una nota. Esto ya se ha visto refrendado por otros autores como Orji et al. (2017), siendo un completo éxito en cuanto al número de aprobados de las prácticas y las notas finales conseguidas.

· Exposición de trabajos. Se trata de la realización de una memoria descriptiva para su posterior presentación oral. Las tres evaluaciones que componen la evaluación 360 son construidas siguiendo la rúbrica: diseño e implementación (70%), presentación (15%) y discusión (15%). Las asignaturas implicadas en esta metodología fueron la #3 y #6.

Tabla 3
Dimensiones e ítems (preguntas) de la encuesta de Evaluación 360

Resultados y Discusión

La muestra, en la que fue testada la metodología de Evaluación 360, la conformaron cuatro agrupaciones mayoritarias: modalidad de evaluación (gamificación, entrega de memoria, presentación oral), sexo (hombre o mujer) y ciclo (Grado o Máster) y curso (asignatura de 1º vs asignatura de 3º). Para evaluar la estructura de las dimensiones propuestas y valorar la encuesta, se realiza un Análisis Factorial Confirmatorio. Tras ello, se analizan las agrupaciones descritas anteriormente para poder extraer información analizada por grupos. Además de las respuestas de la encuesta mediante la escala Likert, se incluye un análisis de la justicia de la ponderación según el alumnado (permite conocer qué tipo de ponderación de la terna hetero-auto-co-evaluación habría sido más justa según su criterio).

Análisis Factorial Confirmatorio

Se realizó un Análisis Factorial Confirmatorio para analizar si la estructura de dimensiones o grupos para cada paquete de preguntas o ítems cuyas respuestas se emplearon la escala Likert (Likert 1932, Albaum, 1997). Para cada pregunta del cuestionario, los encuestados responden con su grado de acuerdo o desacuerdo con la afirmación planteada. El formato de un elemento Likert típico de cinco niveles se estableció como: MD=Muy en desacuerdo, D=En desacuerdo, R=Regular, A=De acuerdo y MA=Muy de acuerdo. Tal y como se definió en la Tabla 3, la estructura de la encuesta consta de cuatro grupos claramente diferenciados.

A diferencia del resto de preguntas que siguen una escala de Likert habitual, la pregunta Q11 (¿ha sido objetiva y justa la coevaluación que he recibido de mis compañeros/as?) tiene la posibilidad de que el alumnado pueda responder que no sabe o no contesta, que estaría fuera de la escala Likert establecida en cinco niveles para todas las respuestas del cuestionario. Por ello, se puso una respuesta con 0 NS/NC a tal falta de información, a la cual se le ha asignado la media truncada en el análisis de la encuesta, puesto que así la distribución de probabilidad de la respuesta apenas sufre modificación.

Una forma de determinar si alguna pregunta puede perturbar la distribución de respuestas de la encuesta es realizar un estudio de la correlación entre las preguntas a través de sus respuestas. Por este motivo, previo al análisis factorial confirmatorio, se calculó la matriz de correlaciones. Por tratarse de variables categóricas ordinales (las respuestas de la escala Likert van de menor grado de acuerdo a mayor), las correlaciones policóricas son las más correctas para medir la correlación (Jöreskog 1994). En la Figura 2 se muestra la matriz de correlaciones, donde puede observarse que todas las variables (ítems o preguntas) poseen correlación positiva, excepto las preguntas Q13 y Q14, en oscuro en la figura, con correlaciones negativas. Estas preguntas tratan sobre anonimato, tal que Q13(… anonimato sería un factor importante para la coevaluación entre estudiantes?) y Q14(…tener amistad con los evaluados/as no ha influido en la coevaluación…) eran de partida preguntas en las que se podía esperar una respuesta poco sincera, pues conocer al compañero se espera que pueda influir en cómo se evalúa (Gong, 2016). Por tanto, estas dos preguntas no tienen la misma consistencia que el resto de ítems y deben ser eliminadas.


Figura 2.
Matriz de correlaciones policóricas.

Finalmente, el modelo determinado en el análisis factorial confirmatorio se muestra en la Figura 3. Las cuatro dimensiones (también denominadas variables latentes o constructos) se representan mediante círculos y aparecen resaltadas en color naranja: Evaluación personal (Prs), Criterios (Crt), Objetividad de la evaluación (Obj) y Aprendizaje de la experiencia (Apr). Los cuadrados resaltados en verde designan cada pregunta (ítem o variable observada) de la encuesta. Las flechas que unen variables latentes y observadas, y que aparecen resaltadas en amarillo, son los pesos del modelo multivariable. Las flechas bidireccionales sobre los elementos circulares resaltados en naranja (dimensiones) indican las covarianzas entre dichas dimensiones. Las flechas bidireccionales sobre los elementos cuadrados resaltados en verde (variables observadas) señalan las varianzas de los residuos.


Figura 3.
Modelo del Análisis Factorial Confirmatorio.

La bondad de ajuste del modelo (conocida tradicionalmente como goodness of fit en los softwares estadísticos) ha sido analizada mediante el famoso test de chi-cuadrado (χ2= 288.554,𝑔𝑑𝑙= 129,𝑝𝑣𝑎𝑙= 0.0), siendo 𝑔𝑑𝑙 los grados de libertad y𝑝𝑣𝑎𝑙 el p-valor (García Cueto et al., 1998), cuyo valor límite suele tomarse en un . Respecto al error de aproximación cuadrático (RMSEA) y el error cuadrático estandarizado de los residuos (SRMR), como índices absolutos, se obtuvo un RMSEA , lo cual indica un buen ajuste del modelo a los datos (González-Montesinos y Backhoff, 2010), mientras que el SRMR presenta un valor de , que expresa un ajuste razonable (Rojas-Torres, 2020). Como indicadores relativos, se determinaron el índice de ajuste comparativo (Comparative Fit Index, CFI) y el índice de Tucker-Lewis (TLI). Los resultados fueron un ajuste aceptable del modelo a los datos, tal y como reflejan unos valores suficientemente altos del CFI y TLI .

Consistencia interna

La consistencia interna de la encuesta se analiza en base al alfa de Cronbach (𝛼). El uso de este parámetro como medida de consistencia interna de la encuesta está justificado en base a que, tal y como indica literatura previa (Rodríguez-Rodríguez & Reguant-Álvarez, 2020), este parámetro mide la covarianza entre las diferentes preguntas de la encuesta, de modo que mientras mayor sea la covarianza, mayor será el alfa de Cronbach. Se obtuvo un 𝛼=0.919, valor que denota un alto grado de fiabilidad (Cronbach, 1951; Nunnally, 1978). Asimismo, se determinó el 𝜆6 de Guttman, dando el valor 𝜆6=0.952. El 𝜆6 es otra medida de la consistencia, muy similar al 𝛼, pero menos sensible al número de elementos de la escala. Estas medidas de consistencia permiten saber cómo de bien se pueden diferenciar a los encuestados en base a la veracidad de sus respuestas, estimando la misma en base a la varianza. Un valor alto de estos parámetros indica que la gran mayoría de las respuestas se pueden considerar como verdaderas. Es una herramienta muy útil para detectar respuestas al cuestionario de dudosa calidad (un alumno podría responder al mismo de manera rápida y aleatoria). Ambos se consideran muy buenos por encima de 0.9. En la Tabla 4 se muestran los resultados del análisis de consistencia sobre todos los ítems, además de la correlación elemento-escala, 𝑟. De los resultados de la tabla se observa que ningún ítem produce un impacto relevante en la consistencia de la encuesta si es eliminado. El único ítem que podría ser cuestionado es el Q12 (corresponde a la valoración de si el alumnado ha realizado una co-evaluación justa y objetiva de los/las compañeros/as), el cual presenta una correlación bastante baja, posiblemente debido a que les presenta conflicto de interés respecto a cómo ven a sus compañeros Se optó por no eliminarlo por considerarse de relevancia informacional en la encuesta. La pregunta Q06 (sobre si la documentación entregada por el profesorado para realizar la evaluación es intuitiva y fácilmente interpretable) también posee una correlación algo más baja que las anteriores, posiblemente debido a que en sus respuestas los alumnos de nuevo entren en conflicto de interés, aunque aquí tienen considerablemente menos dudas, ya que suele ser más fácil para el alumno en una encuesta anónima el sentirse crítico hacia el profesorado antes que hacia los compañeros. . De los resultados de la tabla se observa que ningún ítem produce un impacto relevante en la consistencia de la encuesta si es eliminado. El único ítem que podría ser cuestionado es el Q12 (corresponde a la valoración de si el alumnado ha realizado una co-evaluación justa y objetiva de los/las compañeros/as), el cual presenta una correlación bastante baja, posiblemente debido a que les presenta conflicto de interés respecto a cómo ven a sus compañeros Se optó por no eliminarlo por considerarse de relevancia informacional en la encuesta. La pregunta Q06 (sobre si la documentación entregada por el profesorado para realizar la evaluación es intuitiva y fácilmente interpretable) también posee una correlación algo más baja que las anteriores, posiblemente debido a que en sus respuestas los alumnos de nuevo entren en conflicto de interés, aunque aquí tienen considerablemente menos dudas, ya que suele ser más fácil para el alumno en una encuesta anónima el sentirse crítico hacia el profesorado antes que hacia los compañeros.

Tabla 4
Índices de fiabilidad si se elimina un ítem y correlación elemento-escala

Análisis genérico de la muestra

Primeramente, se analizó la distribución de la escala de las respuestas. En la Figura 4, se muestra el mapa de calor de la distribución de las respuestas. Como se dijo antes, la pregunta Q11 es la única que posee NS/NC, tal y como se recopiló en la encuesta original (recuérdese también que en el AFC se imputó la media de la distribución a esos valores para no perturbar la estructura de la distribución).


Figura 4.
Mapa de calor de la distribución de las respuestas a la encuesta sobre la Evaluación 360

En el análisis de las respuestas al cuestionario se apreció, en general, alta satisfacción de los estudiantes con la evaluación 360 grados. La respuesta a las preguntas del grupo Evaluación personal: Q01 (…comprender los contenidos…); Q02 (…detectar errores conceptuales…); Q03 (… protagonista de mi propio aprendizaje…); preguntas Q04 (…mejorar mi sistema de estudio…) y Q05 (…motivación “extra”…) mostraron un acuerdo muy elevado en el cómputo A (de acuerdo) más MA (muy de acuerdo), pero destacando poco el MA sobre A. Sin embargo, las preguntas del grupo Criterios: Q06 (…documentación … del profesorado para … la evaluación…); Q07 (…criterios de evaluación han sido adecuados…); Q08(… puntuación de los apartados…) y Q09 (…documentación facilitada por el profesorado…) también presentaron un valor de respuestas MA muy elevado. Esto se identifica un elevadísimo grado de satisfacción en criterios de la Evaluación 360 grados. El grupo Objetividad de la evaluación presentó también un acuerdo muy elevado en el cómputo A más MA, destacándose el número de MA, aunque la pregunta Q13 (… anonimato en coevaluación …) tuvo bastantes respuestas en desacuerdo, lo que expresa que un porcentaje notable de estudiantes afirmó que conocer la identidad de los evaluados les influyó en la coevaluación. Este hecho concuerda con Gong (2016), que sugiere que “en la evaluación entre pares, es inevitable estar influenciado por los sentimientos humanos”, y considera que la confidencialidad es una necesidad. El grupo Aprendizaje de la experiencia presentó alto grado de satisfacción, comparable al del primer grupo, aunque presenta mayores porcentajes de muy alto grado de acuerdo, lo que permite entrever que los estudiantes están dispuestos a utilizar de nuevo este método, y que valoran positivamente este desempeño docente frente a las metodologías de evaluación habituales, como ya destacaron otros autores (Sotelo & Arévalo, 2015). Además, Vivanco-Álvarez & Pinto-Vilca (2018) identificaron la evaluación por pares como una herramienta muy relevante para cuantificar la motivación de los estudiantes en carreras de Humanidades, lo que parece suceder también en las carreras de ingeniería como resultado de nuestro estudio. El hecho de que solo el 37.5% de los estudiantes consideraron esta experiencia muy favorable, el 26.1% como favorable y el 19.3% como regular para su sistema de estudio (Q04), pone de manifiesto la importancia del profesorado para mejorar aspectos relacionados con el método de estudio y disminuir la tasa de abandono (García et al., 2016). Considerando las respuestas de los estudiantes a las preguntas Q01, Q02, Q03 y Q04, todas ellas valoradas con “muy de acuerdo” por menos del 50% de los estudiantes, y directamente relacionadas con el proceso enseñanza-aprendizaje, cabe reflexionar sobre la importancia que representa para el estudiante la búsqueda de complementos de innovación en el aula, los cuales mejoren la capacidad de estudio del alumnado. Este resultado puede constituir un trabajo futuro necesario. Como ejemplo de mejora se propone crear grupos virtuales de trabajo para formarse en el tema objeto de evaluación siendo tutorizados por el profesorado. Así el alumnado se beneficiaría más de esta metodología, mantendría un contacto estrecho con el docente y potenciaría el autoestudio, la autoformación y la motivación (García et al., 2016). Desafortunadamente, no se pueden sacar conclusiones de la encuesta respecto a cómo puede mejorar el rendimiento académico del alumnado con esta experiencia. No obstante, dado el alto grado de satisfacción observado y la experiencia con estrategias similares de evaluación reportadas en la literatura (Basurto-Mendoza et al., 2021; Vivanco- Álvarez & Pinto-Vilca, 2018; Sotelo & Arevalo, 2015), es de esperar que una implementación transversal de la metodología pueda aumentar el rendimiento de los estudiantes, logrando menor abandono e incluso mayor atracción de matriculados, siendo muy deficiente en la actualidad en las carreras de ingeniería.

Análisis de la muestra por grupos

También se analizó la muestra por grupos filtrados por: asignaturas de nuevo ingreso/avanzado (1º o 3º de Grado), sexo (hombre o mujer), por modalidad en la evaluación (memoria de prácticas, gamificación y presentación oral) y según ciclo (Grado o Máster).

Análisis Grupo Asignaturas

En este grupo se han analizado las respuestas de la evaluación 360 grados de dos asignaturas con un número similar de estudiantes, alrededor de 60 en ambas materias. La materia de Física se imparte en el primer cuatrimestre de primer curso, al inicio del grado. Dichos estudiantes, recién ingresados en la Universidad, presentan un perfil más próximo al estudiante de Bachillerato que al universitario. Por otro lado, los estudiantes de Procesos Industriales, impartida en tercer curso de Grado, cuentan con varios años de experiencia universitaria. Esta clara diferencia en los perfiles del estudiantado de ambas materias suscitó el interés por analizar comparativamente las respuestas al cuestionario de ambos grupos de estudiantes para valorar si la formación del estudiante durante el Grado contribuyó a fomentar su madurez académica. Yani et al. (2019) consideran que la madurez académica se alcanza cuanto más se aproximan las percepciones del estudiante a la realidad académica. Toppin (2016) sugiere que la madurez académica emerge con el pensamiento crítico. Aunque ambos tópicos son difíciles de evaluar, la interpretación completa del cuestionario podría arrojar algo de luz sobre la evolución de la experiencia universitaria del alumnado en sus estudios de Grado. Así, por ejemplo, las preguntas referidas a la evaluación personal del estudiante (Q01-Q05) proporcionarían una idea de las expectativas de resultados que los estudiantes esperan obtener en una materia determinada. Por tanto, este bloque de preguntas del cuestionario podría relacionarse con la madurez académica del estudiante. Mientras que las preguntas del cuestionario referidas a los Criterios, Objetividad de la evaluación . Aprendizaje de la experiencia se podrían relacionar con una evolución del pensamiento crítico de los estudiantes.

En el grupo de respuestas correspondientes a la evaluación personal del estudiante (preguntas Q01 a Q05) ambos grupos se mostraron optimistas, como se muestra en la Figura 5. No obstante, en general, los estudiantes de primer curso fueron más optimistas que los de 3º. Así, el 81% de 1º estuvieron de acuerdo (A) o muy de acuerdo (MA) frente a 75% de 3º respecto a la pregunta Q02 (… detectar los errores conceptuales...). El 62% de 1º se mostró de acuerdo o muy de acuerdo, frente al 50% de 3º en la pregunta Q04 (...mejora en el sistema de estudio…), y el 76% de 1º frente al 69% de 3º valoraron, A o MA, una motivación extra la autoevaluación (Q05). El 75% de los estudiantes de 3º frente al 80% de 1º se manifestaron de acuerdo o muy de acuerdo con que este sistema de evaluación les ayudó a mejorar la comprensión de los contenidos de la materia (Q01), y el 69% de 3º frente al 76% de 1º confiaron en que este proceso de evaluación produjera una mejora de su responsabilidad en el proceso de enseñanza aprendizaje (Q03). Comparando las respuestas de ambas materias se podría concluir que los estudiantes de 1º fueron más optimistas y los de 3º más realistas, respecto a las expectativas de los resultados académicos, lo cual implicaría mayor grado de madurez académica en el estudiantado de 3º curso, tal y como describen Yani et al. (2019).

Respecto a los criterios de evaluación, el 83% de los estudiantes de 1º y el 88% de 3º estuvieron de acuerdo (A) o muy de acuerdo (MA) respecto a la claridad de la documentación proporcionada por el profesor para realizar la auto- y co-evaluación (Q06). El 94% de 1º y el 97% de 3º valoraron positivamente la documentación facilitada por el profesor (Q09). Aunque la mayoría de los estudiantes de ambos grupos estuvieron de acuerdo o muy de acuerdo con la documentación proporcionada por el profesor y los criterios de evaluación establecidos, un mayor número de los estudiantes de 3º se mostraron más conformes con el sistema de evaluación 360 grados, lo cual podría interpretarse como una evolución positiva en la experiencia universitaria de dichos estudiantes. El 88% de los alumnos de 1º y el 85% de 3º valoraron bien o muy bien los criterios de evaluación acordados por el profesor (Q07), 65% muy de acuerdo. Ambos grupos puntuaron positivamente, con el 90%, la pregunta Q08 (… valoración de la puntuación de los apartados a evaluar...), aunque el 78% de 3º frente al 72% de 1º estuvieron muy de acuerdo con los criterios de puntuación. A pesar de no existir gran diferencia en el porcentaje de respuestas, los estudiantes de 3º fueron más conscientes de la repercusión académica de una evaluación interactiva, esta toma de consciencia se podría interpretar como una evolución positiva hacia la madurez académica.

La objetividad de la evaluación (Q10), fue positivamente puntuada por el 90% de 1º y el 91% de los estudiantes de 3º, ver Figura 6. La objetividad del proceso de coevaluación (Q11) fue menos valorada por ambos grupos, 62%, 1º y 69%, 3º estuvieron de acuerdo o muy de acuerdo. El grado de objetividad con los compañeros (Q12) fue altamente valorado en la evaluación 360, un 88% para los estudiantes de 1º y un 90% para los de 3º. Sin embargo, los dos grupos consideraron que la amistad pudo influir en la coevaluación (Q14), el 31% de 1º y el 25% de 3º admitieron que no influyó la amistad del compañero. Aunque el porcentaje en las respuestas fue similar en ambos grupos, se perfiló una evolución positiva del espíritu crítico del estudiante universitario de 3o, interpretándose este resultado como un rasgo de madurez académica. En este sentido, el anonimato de la evaluación (Q13) fue más valorado por los estudiantes de 3º, 78%, frente al 72% de los estudiantes de 1º, indicando una visión más realista de la objetividad en la evaluación por parte del grupo de 3º. En cuanto a la evaluación del profesorado, ambos grupos coincidieron en el porcentaje de respuestas positivas, 86% 1º y 85% 3º.

En el aprendizaje de la experiencia, el 91% de los alumnos de 1º consideraron que este método de evaluación fue útil o muy útil en la mejora del aprendizaje de la materia (Q16), frente al 90 % del alumnado de 3º. El 78 % de 1º y el 79 % de 3º valoraron bien o muy bien esta experiencia (Q20). Referente a la pregunta Q17 (...aprendizaje respecto al método convencional…), Q18 (…aplicar la experiencia a otras asignaturas...) y Q19 (…..recomendaría la asignatura por el método de evaluación empleado…) las respuestas de ambos grupos fueron bastante próximas. Alrededor del 80% de las estudiantes de ambos grupos valoraron bien o muy bien estas tres preguntas. En resumen, como se comentó en el análisis genérico, los estudiantes de ambos grupos valoraron muy positivamente la experiencia, sí se observó una percepción más realista y crítica del proceso de evaluación 360 grados por parte de los estudiantes de tercer curso, constatando una mejora de la madurez académica en los estudiantes más veteranos.


Figura 5.
Distribución de las respuestas a la encuesta 360 grados, clasificada según la variable asignatura. Se indican los valores numéricos de los estudiantes que están de Acuerdo o Muy de Acuerdo. Las respuestas están a grupadas por a) de Q01 a Q05, b) de Q06 a Q09, c) de Q10 a Q15 y d) de Q16 a Q20.

Análisis Grupo mujeres/hombres

Los resultados de este estudio comparativo aparecen reflejados en la Figura 6. En el análisis del grupo mujeres/hombres, la distribución de las respuestas fue, en general, bastante similar, aunque sí hubo matices que se discuten a continuación: las tres primeras preguntas del grupo Evaluación personal Q01 (…comprender los contenidos de la materia…); Q02 (…detectar errores conceptuales…); Q03 (…ser más responsable y protagonista de mi propio aprendizaje…) las respuestas positivas en hombres fueron ligeramente superiores al de las mujeres. En la pregunta Q04 (…mejorar mi sistema de estudio…) las repuestas de ambos fueron similares (81% mujeres y 82% hombres). La razón de estos resultados, tentativamente, podría estar vinculada a las expectativas de los resultados que tienen ambos sexos. En este sentido, las mujeres son más realistas que los hombres, pues se basan en experiencias anteriores (Rodríguez et al., 2015).

Los hombres son algo más positivos que las mujeres en cuanto a criterios, ítems Q06-Q09; y a la participación y aprendizaje de la experiencia, ítems Q16-Q20. Ellas fueron más positivas respecto a la Objetividad de la evaluación, ítems Q10-Q15. La interpretación de estos resultados puede justificarse por un sentido ligeramente mayor de responsabilidad y justicia en el caso de las mujeres, debido, probablemente, a contextos culturales (Rodríguez et al., 2015).


Figura 6.
Distribución de las respuestas a la encuesta sobre la Evaluación 360, clasificadas según la variable sexo. Se indican los valores numéricos de los estudiantes que están de Acuerdo o Muy de Acuerdo. Las respuestas están agrupadas por a) de Q01 a Q05, b) de Q06 a Q09, c) Q10 a Q15 y d) de Q16 a Q20.

Análisis agrupación por modalidad de evaluación

En el estudio comparativo de esta agrupación la presentación en forma de memoria de prácticas se llevó a cabo en las asignaturas #1, #2, #4 y #5 (Ver numeración en la Tabla 1); la gamificación en la asignatura #7 y la presentación oral en las materias #3 y #6. Los resultados de la encuesta agrupados en los apartados de Evaluación Personal, Criterios, Objetividad de la Evaluación . Aprendizaje de la Experiencia, se muestran en la Figura 7.


Figura 7.
Distribución de las respuestas a la encuesta sobre la Evaluación 360, clasificadas según la forma de presentación: memoria, gamificación o presentación oral. variable presencialidad y anonimato. Las respuestas están agrupadas por a) de Q01 a Q05, b) de Q06 a Q10, c) Q11 a Q15 y d) de Q16 a Q20

Esta figura recoge las respuestas comparativas de las tres modalidades anteriormente mencionadas. En el bloque de Evaluación personal, la primera pregunta Q01 (… comprensión de los contenidos…) muestra claramente cómo la mayor parte de los estudiantes (94%) que presentaron el trabajo mediante presentación oral expresan haber asimilado bien o muy bien los contenidos de la materia, respecto a las otras dos modalidades de presentación (memoria y gamificación). En las preguntas Q02 a Q04, relacionadas con la detección de errores conceptuales (Q02), responsabilidad del propio aprendizaje (Q03) y mejora en la forma de estudio (Q04), cabe destacar el paralelismo en las respuestas de las modalidades de presentación mediante memoria y gamificación respecto a la presentación oral. Como se indica en la Figura 7, el 75-90% de los estudiantes que fueron evaluados mediante la presentación de una memoria de prácticas o por gamificación estuvieron de acuerdo o muy de acuerdo con las cuestiones formuladas en los apartados Q02-Q04. Por otra parte, los estudiantes que presentaron el trabajo mediante exposición oral valoraron muy positivamente el 100% de ellos la pregunta Q02, pero la pregunta Q03 fue valorada muy positivamente por el 40% de los estudiantes y la Q04 únicamente por el 20% de los estudiantes. Teniendo en cuenta que los estudiantes en la modalidad de presentación oral son de Máster, los resultados a las preguntas Q02-Q04 se podrían interpretar como una consecuencia de un aprendizaje más especializado, a la vez que un signo de madurez académica. Sin embargo, el 100% de los estudiantes que fueron evaluados mediante presentación oral consideraron la autoevaluación como una motivación extra en el sistema de evaluación 360. Las preguntas del cuestionario relacionadas con los criterios de evaluación y documentación facilitada por el profesorado (Q06-Q09) obtuvieron, en general, una valoración bastante positiva, especialmente en la presentación oral, en la cual el 100% del alumnado valoró positivamente estas cuatro cuestiones. Este resultado podría justificarse por tratarse de estudiantes con una formación más especializada, con más experiencia universitaria, habituados a presentaciones orales, capaces de apreciar mejor los sistemas de evaluación interactivos. Nuevamente, alrededor del 80% de los estudiantes que presentaron en forma de memoria o mediante gamificación valoraron bien o muy bien los criterios empleados en la evaluación y la documentación facilitada. Cabe destacar que ninguno de los estudiantes de ninguna de las modalidades de presentación estudiadas estuvo en desacuerdo o muy en desacuerdo con los criterios de evaluación establecidos por el profesorado.

Las preguntas relacionadas con la objetividad de la evaluación tuvieron respuestas con la misma tendencia que la señalada en el apartado anterior de criterios. Alrededor del 85% de los estudiantes que fueron evaluados mediante memoria y gamificación consideraron justa y objetiva la auto-evaluación (Q10), la co-evaluación (Q11 y Q12) y la evaluación del profesorado (Q15). Mientras que el 100% de los estudiantes evaluados por presentación oral valoraron positivamente las actuaciones anteriores. No obstante, las preguntas relacionadas con el anonimato (Q13) y la amistad con los evaluados (Q14) obtuvieron valoraciones distintas. Los estudiantes que presentaron memoria valoraron en menor medida el anonimato (75%) frente al 80% de los estudiantes evaluados por gamificación y al 86% de los estudiantes que realizaron presentaciones orales. En todos los casos, alrededor del 30% manifestaron perder cierta objetividad al evaluar compañeros con relación de amistad. Sin embargo, el 50% de los estudiantes que presentaron oralmente expresaron estar muy en desacuerdo con perder objetividad por razones de amistad. Es evidente que esta actividad docente también presenta desventajas. Gong (2016) señala que la confidencialidad debe ser primordial, y propone que el método de revisión por pares desemboque en un proceso de aprendizaje mutuo y mejora común; e incluso incide en la necesidad de preparar a los estudiantes para evaluar a otros estudiantes. De la Figura 7 resulta llamativo que las preguntas con mayor discrepancia en las respuestas son las referentes al anonimato de la evaluación (preguntas Q13 y Q14). En la pregunta Q13, referente a si el anonimato es un factor importante en la coevaluación entre estudiantes, ha dado mayor importancia a este factor precisamente el alumnado sometido a una evaluación no presencial y anónima (memoria de prácticas), frente a los que la han participado de manera no anónima.

Análisis agrupación por Grado y Máster

Los datos de este análisis se muestran en la Figura 8. En la dimensión Evaluación Personal los estudiantes de Grado valoraron más alto los ítems Q01, Q02 y Q04, mientras que los estudiantes de Máster puntuaron mejor los ítems Q03 y Q05. Esto demuestra que los estudiantes de Máster se sintieron más responsables de su propio aprendizaje, Q03, demostrando mayor grado de madurez que los de Grado. También valoraron como una motivación "extra" la realización de los procesos de auto y co-evaluación, Q05. En la dimensión de Criterios, ítems Q06-Q09, las respuestas son muy positivas en ambos casos, siendo ligeramente superior las valoraciones del estudiantado de Máster, excepto la pregunta Q09 (…documentación facilitada por el profesorado…), probablemente debido a que la experiencia acumulada durante los estudios de Grado hace que sean más exigentes con el material facilitado.

La dimensión de Evaluación Personal evidenció que los estudiantes de Máster mostraron mayor grado de madurez que los de Grado, siendo por ejemplo más críticos con la documentación entregada por el profesorado y con el aprendizaje en sí. Esto ya fue observado en alumnado de último año por Abadía et al., (2015). Llama la atención el aspecto de que en la pregunta Q04 (… esta experiencia me ayudó a mejorar mi sistema de estudio…), la diferencia entre la satisfacción de los estudiantes de Máster y Grado fue bastante diferente. Los de máster calificaron esta pregunta mucho peor, y esto tiene sentido: los estudiantes de maestría suelen ser más autónomos e independientes, mientras que los estudiantes de Grado son más propensos a crear grupos de estudio como apoyo académico y moral. Esto ya fue identificado por Martínez & Campuzano (2011) u Olds & Miller (2004), donde la colaboración con los compañeros y el aprendizaje inmersivo se vio como un aliciente a la satisfacción del alumnado en ingeniería y aumento del rendimiento académico. Además, también se observó algo similar en la percepción de la evaluación docente en el grupo Criterios, mostrando posiciones más críticas el alumnado de Máster. En la dimensión de Objetividad de la Evaluación (Q10-Q15) y Aprendizaje de la experiencia (Q16-Q20) los estudiantes de Máster valoraron más positivamente que los de Grado los ítems correspondientes, denotando más independencia. La pregunta Q19 (…recomendarías la ... experiencia…) fue mejor valorada por los estudiantes de Grado. Ambos grupos de estudiantes se inclinaron por el anonimato de la evaluación.


Figura 8.
Distribución de las respuestas a la encuesta sobre la Evaluación 360, clasificadas según titulación de Grado o Máster. Se indican los valores numéricos de los estudiantes que están de Acuerdo o Muy de Acuerdo. Las respuestas están agrupadas por a) de Q01 a Q05, b) de Q06 a Q10, c) Q11 a Q15 y d) de Q16 a Q20.

Análisis de la ponderación de las evaluaciones

En relación a los % que se deberían asignar a las diferentes evaluaciones, en la Figura 9 se recoge un resumen en diagramas de cajas de los mismos.


Figura 9.
Diagramas de cajas de las respuestas Q21-Q23: (a) Respuestas de la muestra total; (b)-(c) agrupadas por asignatura; (d)-(e) agrupadas por ciclo; (f)-(g) agrupadas por género; y (h)-(i)-(j) agrupadas por tipo de evaluación.

Desde un punto de vista global, subfigura (a), teniendo en cuenta todas las respuestas, se considera que la autoevaluación (Q21) debería pesar, de media (símbolo “×” dentro de las cajas la figura), sobre un 40%, similarmente a lo que se opina que debería pesar la coevaluación (Q22), también sobre el 40%. No obstante, se entiende que valoración del profesor (Q23) debería ser algo mayor, sobre el 60%. El rango de respuestas posible era del 10% al 90%. Si se analiza por agrupaciones y empezando por el análisis de las asignaturas de primer y tercer curso, los estudiantes primer curso presentan menor dispersión en su respuesta en las tres cuestiones, pensando todos de una medianamente homogénea, respecto a los de tercer curso, que se mueven en un rango mayor de dispersión. La diferencia en la dispersión se nota sobre todo en la ponderación de la autoevaluación, siendo aquí donde los estudiantes de primer año piensan más parecido entre sí.

En cuanto a la titulación, subfiguras (d) y (e), los resultados del Grado son muy similares a los generales, y con bastante dispersión en las respuestas, mientras que en Máster las respuestas son menos dispersas para Q21 y Q22, con alrededor del 20% y 30%, respectivamente, con pesos más bajos que en Grado, y dándosele también un peso menor a la labor del profesor (sobre el 50%). Respecto a la agrupación por sexo, subfiguras (f) y (g), se observa de promedio casi los mismos valores para los pesos de las evaluaciones, pero las respuestas de las mujeres tienen una mayor dispersión que las de los hombres, mostrando un mayor desacuerdo respecto al % a aplicar, aunque la media en las respuestas entre hombres y mujeres termina siendo prácticamente igual. Por último, los pesos para las evaluaciones según el modo de evaluación, subfiguras (h), (i) y (j), muestran poco acuerdo en la modalidad de Gamificación, algo más de consenso en la modalidad de Entrega de Memoria, y muy clara la auto- y co-evaluación para las Presentaciones Orales, aunque poca unanimidad para el peso del profesor. Como conclusión general, se entiende, como era de esperar, que el peso de la evaluación del profesor ha de ser mayor del 50% siempre, no quedando claro el posicionamiento por parte del alumnado sobre si debe tener más peso la autoevaluación o la coevaluación.

Conclusiones

El presente trabajo ha presentado y aplicado una metodología de evaluación 360 de manera sistemática en diversas asignaturas de ingeniería en su rama industrial y se ha evaluado cuantitativamente la satisfacción de diversas agrupaciones estudiantiles (según curso, sexo y forma de evaluar), así como un análisis de la ponderación que estas agrupaciones consideran más justo para la hetero-, auto- y co-evaluación. Más concretamente, en las distintas agrupaciones se analizaron las respuestas en función de dos asignaturas de 1º y 3º de Grado, según sexo (mujer u hombre), modo de evaluación (memoria, gamificación o presentación oral) y titulación (Grado o Máster). Este análisis ha permitido conocer el nivel de satisfacción del estudiantado con esta metodología. Asimismo, los resultados han permitido observar una gran similitud entre el criterio evaluador del alumnado (co- y auto-evaluación) y el del profesorado (hetero-evaluación).

El Análisis Factorial Confirmatorio aplicado a los ítems de la encuesta confirmó la validez formal de los mismos, así como su consistencia mediante el alfa de Cronbach y lambda-6 de Guttman, que ha demostrado ser muy alta. La ponderación que los alumnos considerarían más justa ha sido también analizada a través de la dispersión en las respuestas, lo que permite saber no solo su opinión sino también el grado de unanimidad de entre todas las opiniones. Las preguntas peor valoradas correspondieron al impacto del anonimato en la evaluación, aunque al analizar las respuestas por agrupación s de dos asignaturas en distintos cursos de Grado (1º y 3º) se observó mayor madurez académica en el estudiantado con más experiencia universitaria (3º), puesta de manifiesto por una percepción más realista y crítica del proceso de evaluación 360 grados por parte de los estudiantes de tercer curso. Además, el estudiantado de Máster se percibió más responsable que el de Grado de su propio aprendizaje, aunque también se mostraron más exigentes con la información proporcionada por el profesorado. En el análisis por sexos, las mujeres fueron más positivas que los hombres respecto a la Objetividad de la Evaluación, quizás por un sentido ligeramente mayor de responsabilidad y justicia, debido a contextos socio-culturales, aunque difícilmente demostrable y podría ser algo trivial. En relación a la modalidad de evaluación, se destaca que el 100% de los encuestados que ha realizado la presentación oral piensa que esta experiencia es muy enriquecedora y la auto-evaluación les resulta una justa forma de evaluarse (seguramente debido a que son mayoritariamente de Máster y, por tanto, menos pudorosos y capaces de presentar en público). Por otro lado, el 80% de los estudiantes evaluados mediante gamificación y memoria de prácticas consideraron muy acertados los criterios y documentación aportada para realizar la evaluación. Ningún estudiante de las distintas modalidades de evaluación estuvo en desacuerdo con los criterios de evaluación del profesorado en un entorno 360 grados.

En relación con el peso de cada evaluación en la calificación final, los resultados arrojan algo lógico y sensato como que la calificación del profesor debe tener más importancia que las otras dos, debiendo de estar por encima del 50%, aunque sin un consenso unánime en cuanto a valor final por parte de los grupos analizados. Por otro lado, no hay tampoco un acuerdo claro por parte de los estudiantes respecto al peso de sus propias evaluaciones. No obstante, si entendemos que los estudiantes de Máster pudieran ser los más maduros (como confirman las respuestas de la encuesta anteriormente descritas), se podría dar por válida la de los pesos medios que proponen: 20% para la autoevaluación y 30% para la coevaluación, lo que dejaría un 50% para el peso de la evaluación del profesor.

Esta metodología ha supuesto, por tanto, una proactividad por parte de los estudiantes en su propia evaluación y una motivación a destacar en gran parte de los mismos.

A modo de resumen final, la encuesta diseñada y analizada sobre la puesta en marcha de la metodología de evaluación 360 grados en titulaciones de ingenierías industriales ha arrojado ser un medio fiable y útil para evaluar el nivel de satisfacción del alumnado. Esto abre las puertas a la expansión de esta metodología de manera común y estandarizada a otras asignaturas, y podría así dotarlas de herramientas de evaluación más justas y, por tanto, poder así llegar a ser una motivación extra para el estudiantado, esperando con ello disminuir la tasa de abandono y/o aumentar el número de matriculaciones de nuevo acceso. Como limitación observada en el presente estudio se puede mencionar el no haber sido posible correlacionar cuantitativamente esta satisfacción con un aumento del éxito académico, aunque estudios previos sí han podido demostrar el impacto positivo de este tipo de metodologías en el aprendizaje del estudiantado (Basurto-Mendoza et al., 2021; Vivanco-Álvarez & Pinto-Vilca, 2018).

De modo general, las respuestas parecen confirmar uno de los objetivos del estudio: que se considere a la evaluación como útil, justa, coherente y atractiva para el alumnado, lo cual parece conseguido a través de esta metodología, logrando mayor atracción del interés del estudiante. Los resultados además evidencian que un balance en la ponderación de la nota del 50%-20%-30% (hetero-, auto- y co-evaluación, respectivamente) podría ser lo más justo, teniendo en cuenta la opinión del alumnado y de cada agrupación analizada.

Agradecimientos

Este estudio ha sido desarrollado gracias a la concesión del Proyecto de Innovación Educativa PIE19-032 del Vicerrectorado de Personal Docente e Investigador de la Universidad de Málaga.

Referencias

Abadía Valle, A. R., Bueno García, C., Ubieto-Artur, M. I., Márquez Cebrián, M. D., Sabaté Díaz, S., & Jorba Noguera, H. (2015). Competencias del buen docente universitario. Opinión de los estudiantes. REDU. Revista de Docencia Universitaria, 13(2), 363-390. https://doi.org/10.4995/redu.2015.5453

Alarcón, R., Blanca, M. J., & Bendayan, R. (2017). Student satisfaction with educational podcasts questionnaire. Escritos de Psicología-Psychological Writings, 10(2), 126-133. https://doi.org/10.5231/psy.writ.2017.14032.

Albaum, G. (1997). The Likert scale revisited. Market Research Society. Journal., 39(2), 1-21. https://doi.org/10.1177/147078539703900202.

Alles, M. A. (2002). Desempeño por competencias: evaluación de 360. Ediciones Granica SA.

Basurto-Mendoza, S. T., Cedeño, J. A. M., Espinales, A. N. V., & Gámez, M. R. (2021). Autoevaluación, Coevaluación y Heteroevaluación como enfoque innovador en la práctica pedagógica y su efecto en el proceso de enseñanza-aprendizaje. Polo del Conocimiento: Revista científico-profesional, 6(3), 828-845. https://doi.org/10.23857/pc.v6i3.2408

Baker, R. W., & Siryk, B. (1984). Student adaptation to college questionnaire (SACQ). Western Psychological Services. https://doi.org/10.1037/t06525-000.

Bisquerra Alzina, R., Martínez Olmo, F., Obiols Soler, M., & Pérez Escoda, N. (2006). Evaluación de 360º: Una aplicación a la educación emocional. Revista de investigación educativa, 24(1). https://revistas.um.es/rie/article/view/97371.

Blanco, A. (2008). Las rúbricas: un instrumento útil para la evaluación de competencias, In Prieto, L. (coord.). La enseñanza universitaria centrada en el aprendizaje: estrategias útiles para el profesorado (pp. 171-188). Octaedro-ICE de la Universidad de Barcelona.

Bravo Arteaga, A., & Fernández del Valle, J. C. (2000). La evaluación convencional frente a los nuevos modelos de evaluación auténtica. Psicothema, 12 (S. 2). http://hdl.handle.net/10651/27478

Boud, D., Cohen, R., & Sampson, J. (1999). Peer Learning and Assessment. Assessment & Evaluation in Higher Education, 24(4), 413–426. https://doi.org/10.1080/0260293990240405.

Casero-Martínez, A. (2008). Propuesta de un cuestionario de evaluación de la calidad docente universitaria consensuado entre alumnos y profesores. Revista de Investigación educativa, 26(1), 25-44. https://revistas.um.es/rie/article/view/94091

Castillo-Martín, C. (2021). Análisis de la eficiencia de los estudios de ingeniería. [Tesis Fin de Grado Ingeniería de Organización Industrial]. Universidad de Sevilla.

Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16, 297-334. https://doi.org/10.1007/BF02310555.

Douglas, J., Douglas, A., & Barnes, B. (2006). Measuring student satisfaction at a UK university. Quality assurance in education. https://doi.org/10.1108/09684880610678568.

Etxabe, J.M.; Aranguren, K. y Losada, D. (2011). Diseño de rúbricas en la formación inicial de maestros/as, Revista de Formación e Innovación Educativa Universitaria, 4 (3), 156-169.

García Cueto, E., Gallo Álvaro, P.M., & Miranda García, R. (1998). Bondad de ajuste en el análisis factorial confirmatorio. Psicothema, 10 (3). http://hdl.handle.net/10651/29218

García, M. E., Gutiérrez, A. B. B., & Rodríguez-Muñiz, L. J. (2016). Permanencia en la universidad: la importancia de un buen comienzo. Aula abierta, 44(1), 1-6. https://doi.org/10.1016/j.aula.2015.04.001

Glass, G. V., & Ellett Jr, F. S. (1980). Evaluation research. Annual review of psychology, 31(1), 211-228. https://doi.org/10.1146/annurev.ps.31.020180.001235

Gong, G. (2016). Consideration of evaluation of teaching at colleges. Open Journal of Social Sciences, 4(07), 82. http://dx.doi.org/10.4236/jss.2016.47013

González López, I., & López Cámara, A. B. (2010). Sentando las bases para la construcción de un modelo de evaluación a las competencias docentes del profesorado universitario. Revista de investigación educativa, 28(2), 403-423. https://revistas.um.es/rie/article/view/109431

González-Montesinos, M.J., & Backhoff, E. (2010). Validación de un cuestionario de contexto para evaluar sistemas educativos con modelos de ecuaciones estructurales. RELIEVE, 16(2), 1-17. https://doi.org/10.7203/relieve.16.2.4133

Jiménez Galán, Y.I., González Ramírez, M. A., & Hernández Jaime, J. (2010). Modelo 360 para la evaluación por competencias (enseñanza-aprendizaje). Innovación Educativa, 10(53), 43-53. https://www.redalyc.org/pdf/1794/179420770003.pdf.

Jöreskog, Karl G. (1994) On the estimation of polychoric correlations and their asymptotic covariance matrix. Psychometrika, 59, 381-389. https://doi.org/10.1007/BF02296131

Hanrahan, S. J., & Isaacs, G. (2001). Assessing Self- and Peer-assessment: The students’ views. Higher Education Research & Development, 20(1), 53–70. https://doi.org/10.1080/07294360123776

Hernández, J., Pérez, J. A (dir.) (2019). La universidad española en cifras. Información académica, productiva y financiera de las Universidades Públicas de España. Indicadores Universitarios Curso académico 2017-2018. CRUE.

House, J. D. (1993). The relationship between academic self-concept and school withdrawal. The Journal of Social Psychology, 133(1), 125-127. https://doi.org/10.1080/00224545.1993.9712129

Lévy-Leboyer, C. (2004). Feedback de 360. Grupo Planeta (GBS).

Likert, R. (1932). A technique for the measurement of attitudes. Archives of psychology, 22 (140), 1-55.

López-Cózar-Navarro, C., Benito-Hernández, S., & Priede-Bergamini, T. (2020). Un análisis exploratorio de los factores que inciden en el abandono universitario en titulaciones de ingeniería. REDU. Revista de Docencia Universitaria, 18(2), 81-96. https://doi.org/10.4995/redu.2020.13294

López Pastor, V. M. L., Pascual, M. G., & Martín, J. B. (2005). La participación del alumnado en la evaluación: la autoevaluación, la coevaluación y la evaluación compartida. Revista Tándem: Didáctica de la Educación Física, 17, 21-37. http://hdl.handle.net/11162/21846

Martin, C. C., & Locke, K. D. (2022). What Do Peer Evaluations Represent? A Study of Rater Consensus and Target Personality. Frontiers in Education, 7. https://doi.org/10.3389/FEDUC.2022.746457

Martínez-Caro, E., & Campuzano-Bolarín, F. (2011). Factors affecting students’ satisfaction in engineering disciplines: traditional vs. blended approaches. European Journal of Engineering Education, 36(5), 473-483. https://doi.org/10.1080/03043797.2011.619647

Martínez-Figueira, E., Tellado-González, F., & Raposo-Rivas, M. (2013). La rúbrica como instrumento para la autoevaluación: un estudio piloto. REDU. Revista de Docencia Universitaria, 11(2), 373–390. https://doi.org/10.4995/redu.2013.5581

Mertler, Craig A. (2001). Designing scoring rubrics for your classroom. Practical Assessment, Research & Evaluation, 7(25). https://doi.org/10.7275/gcy8-0w24

Mehrens, W. A. (1992). Using performance assessment for accountability purposes. Educational Measurement: Issues and Practice. https://psycnet.apa.org/doi/10.1111/j.1745-3992.1992.tb00220.x

Ministerio de Universidades (2019). Datos y cifras del sistema universitario español. Publicación 2020-2021. Acceso el 01/07/2022.https://www.universidades.gob.es/stfls/universidades/Estadisticas/ficheros/Datos_y_Cifras_2020-21.pdf

Mumford, M. D., Baughman, W. A., Supinski, E. P., & Anderson, L. E. (1998). Assessing Complex Cognitive Shills. Beyond Multiple Choice: Evaluating Alternatives to Traditional Testing for Selection. Lawrence Erlbaum Associates, Pulishers.

Mumpuni, K. E., Priyayi, D. F., & Widoretno, S. (2022). How do Students Perform a Peer Assessment? International Journal of Instruction, 15(3), 751–766. https://doi.org/10.29333/IJI.2022.15341A

Nunnally, J.C., Bernstein, I. (1978) Psychometric Theory McGraw-Hill New York, the role of university in the development of entrepreneurial vocations: a Spanish study. The Journal of Technology Transfer, 37 (1), 387–405. https://doi.org/10.1007/s10961-010-9171-x.

Olds, B. M., & Miller, R. L. (2004). The effect of a first‐year integrated engineering curriculum on graduation rates and student satisfaction: A longitudinal study. Journal of Engineering Education, 93(1), 23-35. https://doi.org/10.1002/j.2168-9830.2004.tb00785.x

Orji, R., Nacke, L. E., & Di Marco, C. (2017, May). Towards personality-driven persuasive health games and gamified systems. In Proceedings of the 2017 CHI conference on human factors in computing systems (pp. 1015-1027). https://doi.org/10.1145/3025453.3025577

Petkova, A. P., Domingo, M. A., & Lamm, E. (2021). Let’s be frank: Individual and team-level predictors of improvement in student teamwork effectiveness following peer-evaluation feedback. International Journal of Management Education, 19(3). https://doi.org/10.1016/J.IJME.2021.100538

Rodríguez González, R., Hernández García, J., Alonso Gutiérrez, A. M., & Díez Itza, E. (2003). El absentismo en la Universidad: resultados de una encuesta sobre motivos que señalan los estudiantes para no asistir a clase. Aula Abierta, 82.

Rodríguez Menéndez, M. D. C., Inda Caro, M. M., & Peña Calvo, J. V. (2015). Validación de la teoría cognitivo social de desarrollo de la carrera con una muestra de estudiantes de ingeniería. Educación XXI: revista de la Facultad de Educación, 18(2), 257-276. https://doi.org/10.5944/educxx1.14604

Rodríguez-Rodríguez, J., & Reguant-Álvarez, M. (2020). Calcular la fiabilidad de un cuestionario o escala mediante el SPSS: el coeficiente alfa de Cronbach. REIRE Revista d'Innovació i Recerca en Educació, 13(2), 1-13. https://doi.org/10.1344/reire2020.13.230048

Rojas-Torres, L. (2020). Robustez de los índices de ajuste del Análisis Factorial Confirmatorio a los valores extremos. Revista de Matemática: Teoría y Aplicaciones, 27(2), 403-424. https://doi.org/10.15517/rmta.v27i2.33677

Santos-Pastor, M.L., Cañadas, L., Martínez-Muñoz, L.F., & García-Rico, L. (2020). Diseño y validación de una escala para evaluar el aprendizaje-servicio universitario en actividad física y deporte. Educación XX1, 23(2), 67-93. https://doi.org/10.5944/educXX1.25422

Servimedia. (18 de diciembre de 2019). Los estudiantes de ciencias e ingenierías caen un 30% desde 2.000 porque el mercado laboral no recompensa "el esfuerzo". El Economista.https://www.eleconomista.es/ecoaula/noticias/10260885/12/19/Los-estudiantes-de-ciencias-e-ingenierias-caen-un-30-desde-2000-porque-el-mercado-laboral-no-recompensa-el-esfuerzo.html

Silió, E. (18 de diciembre de 2019). La revolución 4.0 peligra: los estudiantes de ingeniería caen un 30% en 20 años. El País.https://elpais.com/sociedad/2019/12/17/actualidad/1576612459_205974.html

Sotelo, A. F., & Arévalo, M. G. V. (2015). Proceso de autoevaluación, coevaluación y heteroevaluación para caracterizar el comportamiento estudiantil y mejorar su desempeño. Revista San Gregorio, 1(9), 6-15.

Schertzer, C. B., & Schertzer, S. M. (2004). Student satisfaction and retention: A conceptual model. Journal of Marketing for Higher Education, 14(1), 79-91. https://doi.org/10.1300/J050v14n01_05

Stegmann, J.G. (18 de diciembre de 2019). En España nadie quiere estudiar ingenierías y el país se dirige a la «dependencia tecnológica». ABC.https://www.abc.es/sociedad/abci-espana-nadie-quiere-estudiar-ingenierias-y-pais-dirige-dependencia-tecnologica-201912181146_noticia.html

Tuan, H. L., Chin, C. C., & Shieh, S. H. (2005). The development of a questionnaire to measure students' motivation towards science learning. International journal of science education, 27(6), 639-654. https://doi.org/10.1080/0950069042000323737

Tyler, R. W. (1942). General statement on evaluation. The Journal of Educational Research, 35(7), 492-501. https://doi.org/10.1080/00220671.1942.10881106

Topping, K. (1998). Peer assessment between students in colleges and universities. Review of educational Research, 68(3), 249-276. https://doi.org/10.3102/00346543068003249

Vivanco-Álvarez, R. V., & Pinto-Vilca, S. A. (2018). Efecto de la aplicación de coevaluación sobre la motivación de logro en estudiantes de nivel universitario. Paideia XXI, 8(1), 57-78. https://doi.org/10.31381/paideia.v8i1.2037

Wiggins, G. (1990). The Case for Authentic Assessment. ERIC Digest.

Wortman, P. M. (1983). Evaluation research: A methodological perspective. Annual Review of Psychology, 34(1), 223-260. https://doi.org/10.1146/annurev.ps.34.020183.001255

Yani, B., Harding, A., & Engelbrecht, J. (2019). Academic maturity of students in an extended programme in mathematics. International journal of mathematical education in science and technology, 50(7), 1037-1049. https://doi.org/10.1080/0020739X.2019.1650305

Notas de autor

1 Francisco Javier Granados Ortiz (fjgranados@ual.es). Investigador Ramón y Cajal en el Departamento de Ingeniería de la Universidad de Almería. Es Ingeniero Industrial por la Universidad de Málaga y Doctor en Ciencias de la Computación y Matemáticas por la Universidad de Greenwich (UK) en 2017. Fue Marie Curie Fellow dentro del proyecto europeo FP7 AeroTraNet2, donde trabajó junto a 9 prestigiosas instituciones de toda Europa tanto de la industria como del mundo académico. Después de este proyecto, trabajó como científico de datos en la industria durante tres años y medio. En 2020 se incorporó a la Universidad de Málaga como ingeniero investigador y becario postdoctoral PAIDI (Plan Andaluz de Investigación, Desarrollo e Innovación) y actualmente posee un contrato de investigación de excelencia Ramón y Cajal en la Universidad de Almería (España). Ha publicado varios trabajos de investigación en revistas de primer nivel (más de 20 publicaciones como primer autor), ha realizado estancias de investigación en 8 instituciones diferentes, ha desarrollado actividades docentes (Escuelas de ingeniería, incluyendo rol de Profesor Invitado en la Universidad de Málaga) y ha asistido a numerosas conferencias en todo el mundo (25+ presentaciones). Además, ha participado en dos proyectos de innovación educativa y está acreditado como Profesor Ayudante Doctor y Contratado Doctor por la ANECA.
2 Ana Isabel Gómez Merino (aimerino@uma.es). Catedrática (CEU) del Departamento de Física Aplicada II de la Universidad de Málaga. Doctora en Ciencias Físicas por la Universidad de Granada. Miembro de la Real Sociedad Española de Física. Ha trabajado en Proyectos de Innovación Educativa, profundizando en aspectos relacionados con el uso de Tecnologías TICS en el aprendizaje de la Física, influencia de las tutorías en el proceso de enseñanza-aprendizaje, la mujer en la Ingeniería, coordinación interdisciplinar y evaluación interactiva. Ha realizado estancias en las Universidades de Skövde (Suecia) y de Albuquerque (USA) esta última con el grupo ISTEC (Consorcio Iberoamericano para la Educación en Ciencia y Tecnología).
3 Jesús Javier Jiménez Galea (j.jimenez@uma.es). Profesor Sustituto Interino en el Departamento de Ingeniería Civil, de Materiales y Fabricación de la Universidad de Málaga. Doctorado en Ingeniería Mecatrónica por la Universidad de Málaga. Ingeniero Técnico Industrial especialidad Mecánica, Ingeniero Técnico en Diseño Industrial, Máster Universitario en Prevención de Riesgos Laborales, Máster Propio Universitario en Innovación Educativa y Gestión del Conocimiento por la Universidad de Málaga. Pertenencia a la Comisión de Garantía de la Calidad del Programa de Doctorado en Ingeniería Mecatrónica. Investigador en el PIE17-165, en el PIE19-032 y en el PIE22-094. Pertenencia al grupo PAIDI FQM231. Coordinador de diversos cursos en la Fundación General de la Universidad de Málaga (FGUMA). Colaborador en 2016 en “Las 101 mañanas” de la cadena 101tv. Desde 2016 hasta la actualidad docente e investigador como Profesor Sustituto Interino en la Escuela de Ingenierías Industriales de la Universidad de Málaga.
4 Isidro María Santos Ráez (imsantos@uma.es). Profesor Asociado en el Departamento de Ingeniería Mecánica, Térmica y de Fluidos de la Universidad de Málaga. Profesor de Enseñanza Secundaria en la especialidad de Organización y Procesos en Mantenimiento de Vehículos de la Junta de Andalucía. Profesor Asociado, en el Área de Máquinas y Motores Térmicos, de la Escuela de Ingenierías Industriales de la Universidad de Málaga. Doctor Ingeniero Industrial, Ingeniero Técnico Industrial por la Escuela Universitaria Politécnica e Ingeniero en Organización Industrial por la Escuela Técnica Superior de Ingeniería Industrial, Universidad de Málaga. Certificado de Aptitud Pedagógica y Técnico Superior en Prevención de Riesgos Laborales. Investigador en Proyectos de Innovación Docente relativos a Coordinación multidisciplinar, horizontal y vertical, evaluación entre pares y uso de tecnologías TICs. Coautor de textos científicos en el campo de los motores térmicos, nanofluidos y prácticas de innovación docente.
5 Juan Jesús Fernández Lozano (jfl@uma.es). Profesor Titular en el Departamento de Ingeniería de Sistemas y Automática de la Universidad de Málaga. J. J. Fernández-Lozano obtuvo su título en Ingeniería Industrial en 1997 en la Universidad de Málaga. En 2002 se doctoró por esa misma Universidad. De 2004 a 2012, fue Vicedirector de la Escuela Técnica Superior de Ingeniería Industrial de la Universidad de Málaga, y Director, de 2012 a 2016. Ha participado en el diseño e implantación de nuevos grados y másteres acordes con el Espacio Europeo de Educación Superior. En 1998 se incorporó al Grupo de Robótica y Mecatrónica. Desde 2009 es Profesor Titular del Departamento de Ingeniería de Sistemas y Automática. Además de la innovación en educación superior, sus principales intereses de investigación incluyen aplicaciones de robótica, mecatrónica y control inteligente a diferentes campos, desde vehículos inteligentes a aplicaciones industriales o misiones de emergencia. Además de su actividad como IP e Investigador para proyectos de investigación financiados con fondos públicos, colabora habitualmente con diferentes empresas privadas. Como resultado de estas actividades, además de ser autor de artículos en revistas y congresos, ha registrado 11 patentes, siete de ellas transferidas a la industria.
6 Jesús Manuel Gómez de Gabriel (jmgomez@uma.es). Profesor Titular en el Departamento de Ingeniería de Sistemas y Automática de la Universidad de Málaga.vDr. Ingeniero en Informática por la Universidad de Málaga (1999) profesor Titular de Universidad en el Departamento de Ingeniería de Sistemas y Automática. Ha investigado en robots móviles, en robótica quirúrgica y en educación en la ingeniería. Actualmente desarrolla su investigación en la interacción física entre robots y humanos. Ha realizado estancias y colabora como revisor y editor invitado de revistas internacionales. Ha codirigido cuatro tesis doctorales sobre interacción entre robots y humanos en diversas formas. Investigador Principal de dos proyectos de investigación del Plan Nacional, y otros de tipo regional y local. Ha sido investigador principal en tres proyectos de innovación educativa y participado en cursos de verano internacionales.
7 Joaquín Ortega Casanova (jortega@uma.es). Catedrático de Universidad en el Departamento de Ingeniería Mecánica, Térmica y de Fluidos de la Universidad de Málaga.vJoaquín Ortega Casanova es Ingeniero Industrial por la Universidad de Málaga, formando parte de primera promoción de la antigua Escuela Técnica Superior de Ingeniería Industrial (1990-1995). Tras ello, fue becario FPI asociado a un Proyecto del Plan Nacional (1996-1999) y defendió la Tesis en el área de conocimiento de Mecánica de Fluidos de la Universidad de Málaga en el año 2000. Fue Profesor Asociado de 1999 a 2003, y Profesor Titular de Universidad desde 2003 hasta 2021. Desde entonces es Catedrático de Universidad. Actualmente también es Coordinador del Grado en Ingeniería en Tecnologías Industriales desde 2012 hasta la fecha en la Universidad de Málaga. Ha realizado dos estancias pre-doctorales en la Arizona State University (Az, EE.UU.), y varias post-doctorales en la University of Greenwich (Londres, UK) y la Universidade do Porto (Oporto, Portugal). También fue Vicerrector Adjunto de Transferencia desde 2018 a 2020, y desde entonces es Vicerrector Adjunto de Infraestructuras de la Universidad de Málaga.

fjgranados@ual.es

Enlace alternativo



Buscar:
Ir a la Página
IR
Visor de artículos científicos generados a partir de XML-JATS4R por