Santiago, Chile
El crecimiento del uso de sistemas e-learning en instituciones de educación superior a nivel mundial ha resaltado la necesidad de evaluar su calidad de manera rigurosa y sistemática. Este estudio tiene como objetivo analizar el estado actual de la medición de la calidad en los sistemas e-learning mediante una revisión sistemática de la literatura. Se empleó la estrategia SPIDER dentro del marco del protocolo PRISMA, utilizando bases de datos académicas de alto impacto, incluyendo SCOPUS, Web of Science, EBSCOhost, Dialnet, JSTOR, Science Direct y ProQuest. Se recopilaron artículos publicados entre 1992 y 2024, de los cuales, tras la aplicación de criterios de elegibilidad y filtros de calidad, se seleccionaron 66 estudios para el análisis. Los resultados indican la existencia de una amplia variedad de modelos, normas y guías de evaluación de calidad en e-learning, sin que la mayoría de ellos incluya un método de medición estandarizado. Además, entre aquellos estudios que aplicaron algún método de medición, se evidenció una falta de consenso en las métricas utilizadas, impidiendo la comparabilidad de los resultados. Ningún estudio revisado contrastó sus hallazgos con un estándar globalmente reconocido, lo que sugiere la ausencia de un marco unificado para la evaluación de la calidad en e-learning. Ante este panorama, se recomienda la conformación de un comité técnico internacional integrado por organismos de estandarización y universidades, con el propósito de desarrollar un método de medición consensuado y establecer un estándar global que permita garantizar la calidad en los sistemas e-learning.
The growth of e-learning systems in higher education institutions worldwide has underscored the need for a rigorous and systematic assessment of their quality. This study aims to analyze the current state of quality measurement in e-learning systems through a systematic literature review. The SPIDER strategy was applied within the PRISMA protocol framework, utilizing high-impact academic databases, including SCOPUS, Web of Science, EBSCOhost, Dialnet, JSTOR, Science Direct, and ProQuest. Articles published between 1992 and 2024 were collected, and after applying eligibility criteria and quality filters, 66 studies were selected for analysis. The results reveal a wide range of models, standards, and guidelines for evaluating e-learning quality, most of which lack a standardized measurement method. Furthermore, among the studies that applied a quality measurement approach, there was a lack of consensus in the metrics used, making cross-comparison of findings unfeasible. Notably, none of the reviewed studies validated their results against a globally recognized standard, indicating the absence of a unified framework for e-learning quality assessment. Given this scenario, we recommend the formation of an international technical committee composed of standardization bodies and academic institutions to develop a consensus-based measurement method and establish a global standard for ensuring the quality of e-learning systems.