Excelia como Herramienta para la Investigación
Científica en Escala Likert
Edwin Rafael Carrasquero Cabrera
Centro de Estudios Matemáticos y Físicos. Facultad de Humanidades y Educación. Universidad del Zulia.
Maracaibo-Venezuela.
El software estadístico persigue automatizar las operaciones numéricas necesarias en el procesamiento y análisis
estadístico de datos provenientes de una investigación científica, con un instrumento en escala Likert, usualmente con
cinco alternativas de respuesta. El objetivo del presente trabajo es describir las diferentes aplicaciones de diseño,
programación y construcción de un recurso digital tecno-didáctico con valores agregados a Excel, del tipo Excelia,
para llevar a cabo el tratamiento estadístico descriptivo e inferencial, sobre la base de datos primarios generados desde
una investigación para la automatización de las operaciones numéricas. La metodología utilizada fue documental, de
tipo descriptiva y aplicada. La construcción de Excelia se realizó a partir de algunas funciones propias de Excel, con
apoyo de funciones lógicas y artificios matemáticos. Como resultado, se tienen aplicaciones que pueden combinarse y
personalizarse, según el interés de investigadores, docentes y estudiantes, agrupadas en tres categorías: calculadora
estadística, procesador de datos y recurso instruccional. Excelia destaca como una herramienta de interés debido a sus
múltiples beneficios; entre ellos, capacidad para optimizar el tiempo y facilidad de uso, ya que su diseño intuitivo
permite al usuario ingresar los datos de manera sencilla. Posteriormente, solo queda interpretar los resultados dentro
del marco del contexto teórico, lo que agiliza el análisis y la toma de decisiones. Gracias a su eficiencia y accesibilidad,
se convierte en una opción ideal para quienes buscan una solución práctica y efectiva.
Palabras clave: Excelia, estadística, recurso tecno-didáctico, calculadora, procesador de datos
Excelia as a Tool for Scientific Research on a Likert Scale
Statistical software aims to automate the numerical operations required for the processing and statistical analysis of
data from scientific research, using a Likert-based instrument, usually with five response options. The objective of this
paper is to describe the different applications for the design, programming, and construction of a digital techno-
educational resource with added values to Excel, such as Excelia, to carry out descriptive and inferential statistical
processing based on primary data generated from research for the automation of numerical operations. The
methodology used was documentary, descriptive, and applied. Excelia was built using some of Excel's own functions,
supported by logical functions and mathematical devices. The result is applications that can be combined and
customized according to the interests of researchers, teachers, and students, grouped into three categories: statistical
calculator, data processor, and instructional resource. Excelia stands out as a tool of interest due to its multiple benefits:
Among these are its ability to optimize time and ease of use, as its intuitive design allows the user to easily enter data.
Afterward, all that remains is to interpret the results within the theoretical context, which streamlines analysis and
decision-making. Thanks to its efficiency and accessibility, it becomes an ideal option for those seeking a practical and
effective solution.
Keywords: Excelia, statistics, techno-didactic resource, calculator, data processor
Notas de autores
Edwin Rafael Carrasquero Cabrera https://orcid.org/0000-0001-6418-9365 email: ercaca093@gmail.com
El autor declara no tener conflictos de intereses relacionados con la elaboración del presente trabajo.
Fecha de recibido: 16-04-2025 Fecha de Aceptado: 16-05-2025
DOI: https://doi.org/10.5281/zenodo.15665759
e-ISSN 2731-2429 Depósito legal ZU2021000152
Vol. 32(1) enero junio 2025
https://produccioncientificaluz.org/index.php/encuentro
Introducción
La enseñanza de las matemáticas, y el particular la estadística, representa un desafío
constante para los docentes, quienes deben emplear estrategias y recursos innovadores que motiven
a los estudiantes y fomenten un aprendizaje significativo. Más allá de transmitir conocimientos, el
rol del docente implica diseñar metodologías activas que estimulen el razonamiento, la resolución
de problemas y la aplicación práctica de los conceptos matemáticos. Esto requiere un enfoque
dinámico que combine herramientas didácticas, tecnología y situaciones reales, permitiendo a los
alumnos comprender la utilidad de las matemáticas en su vida cotidiana y fortalecer sus habilidades
de pensamiento lógico y crítico (Cáceres et al., 2025).
Para Mena y Restrepo (2018), en Didáctica de la Matemática, la preocupación es siempre
encontrar respuestas y mejoras a los procesos de enseñanza y aprendizaje de la Estadística como
parte de la familia de las Ciencias Matemáticas, brindando así la oportunidad de que docentes y
estudiantes exploren nuevas maneras de abordar esta disciplina y desarrollar enfoques innovadores
que potencien su comprensión y aplicación.
En estos tiempos del auge de la tecnología, donde el software estadístico es un compañero
necesario en la realización de cualquier investigación de enfoque cuantitativo, con el uso obligado
de las estadísticas, se hace necesario desarrollar en los estudiantes y docentes las competencias
tecnológicas para potenciar las habilidades lógicas matemáticas (Albornoz, 2017), en particular la
estadística. En este sentido se dispone de un software editable, del tipo hoja de cálculo, con el cual
se puede crear, diseñar, programar y construir recursos digitales útiles en el mundo didáctico. Excel
es un producto tecnológico al alcance de la gran mayoría de las personas, sobre todo en los actores
de la educación.
Rega Armas et al. (2021) implementaron los métodos numéricos con Excel de Microsoft para
fortalecer el proceso de la enseñanza y el aprendizaje de la Física, particularmente en problemas
de Mecánica. Buzzo Garrao (2007), resalta los beneficios de utilizar conjuntamente dos
herramientas en la enseñanza de ciertos temas de Física: un método numérico, como el algoritmo
de Euler, y un software práctico, como la hoja de cálculo Excel. Esta combinación permite abordar
problemas en cursos introductorios que, por la falta de herramientas matemáticas apropiadas,
suelen quedar fuera del temario tradicional. Gracias a esta metodología, se facilita el acceso a
soluciones que permiten visualizar la evolución temporal de los sistemas estudiados, favoreciendo
una comprensión numérica y gráfica más profunda.
El uso de un programa de computación estadístico es importante tanto en la ciencia básica
como en la aplicada, por sus posibilidades de automatización de los complejos cálculos estadísticos
para el análisis de los datos. Las aplicaciones de procesamiento estadístico que se han establecido
en la investigación científica cubana, han sido opciones comerciales (SPSS, Minitab, Statgraphic,
MS Excel, entre otros), con precios bien altos en licencias. Sin embargo, ha surgido un conjunto
de aplicaciones de software libre (R, PSPP) muy potentes para la difícil tarea del análisis de datos
de la investigación (Avello, 2017).
Todo actor universitario, entiéndase profesor y estudiante, debe estar en conocimiento de las
diferentes formas de investigar, recolectar y procesar datos; debe tener conocimiento sobre el
software estadístico, de manera que pueda automatizar el proceso de análisis de los datos. Un
software estadístico es un programa informático cuyo principal objetivo es automatizar y realizar
análisis de datos estadísticos. Este tipo de herramientas suelen proporcionar mecanismos útiles
para la organización, interpretación y presentación de forma fácil y sencilla de los datos
seleccionados para el análisis estadístico. Suelen ser utilizados, generalmente, por especialistas en
el área de estadística. Pero, al ser de cil acceso y de sencilla usabilidad, cualquier persona que
requiera de estas herramientas para potenciar sus investigaciones, puede emplearlas.
Los programas estadísticos sirven para automatizar y facilitar el procesamiento de datos. Sea
cual sea el análisis de datos que se lleve a cabo, estas herramientas permiten identificar de forma
fácil correlaciones, regresiones y variaciones entre las variantes estudiadas. A partir de la
simplificación de estos datos, se posibilita la toma de decisiones en una investigación determinada.
En las investigaciones en las ciencias sociales de los últimos años, cada vez resulta más común,
encontrar el uso de programas computacionales como parte de sus métodos, lo cual favorece y
permite el avance en la mayoría de los casos. No se puede negar la importancia y el avance que se
obtiene en la investigación social con la incorporación del uso de diferentes programas de cómputo
(Aragón, 2016).
La Estadística es una herramienta fundamental para el análisis de datos en las investigaciones
con componentes cuantitativos. En las últimas décadas, en las ciencias sociales se han utilizado
paquetes de software como SPSS (Statistical Package for Social Sciences) para realizar análisis
estadísticos. Sin embargo, hay otras opciones confiables y gratuitas basadas en lenguaje R (Roque,
2023)
El síndrome TMT (Todo Menos Tesis) es un reconocido indicador sobre la situación de
muchos estudiantes en los diferentes niveles de educación universitaria: pregrado, especialidad,
maestría y doctorado, que cursan todas las materias, reconocido esto como la escolaridad, pero
quedan pendiente con la realización de la investigación, de carácter científico, llámese Trabajo de
Grado, Tesis, Tesina, que deben realizar para optar por el Título que lo valide como profesional,
especialista, magister o doctor (Hacer TFG, 2022).
Uno de los factores que generan esta situación, en el caso de las investigaciones de enfoque
positivista, es la falta de dominio de las herramientas estadísticas para el procesamiento de los
datos primarios generados desde la investigación propiamente dicha a través del instrumento de
investigación. Las herramientas teóricas se abordan mediante la interpretación de los resultados a
la luz del estadístico usado, tal como el promedio o las proporciones, las más usuales en el medio
de las ciencias sociales.
Los cálculos de hoy en día ya no son manuales, los cuales ameritaban un exagerado tiempo,
sin dejar por fuera la posible existencia del error humano de cálculo en el informe estadístico. Hoy
se cuenta, entre otros, con el software SPSS que facilita la tarea investigativa en la parte estadística.
Sin embargo, prevalece el problema de su adquisición y el manejo del mismo que amerita unas
instrucciones iniciales. Por otro lado, está disponible para la gran totalidad de los usuarios de los
PC´s, gracias a Microsoft, la hoja de cálculo Excel y los resultados de Carrasquero (2023), sobre
un recurso del tipo digital tecno-didáctico con valores agregados a Excel, conocido como Excelia,
con las posibilidades de ser construido, diseñado, programado por el mismo usuario por su nivel
medio de complejidad.
Se plantea la tarea de hacer la construcción del recurso digital, del tipo Excelia, para el
análisis estadístico descriptivo e inferencial en las investigaciones con enfoques positivistas. Se
traza la ruta a seguir para el éxito de esta importante meta de investigación, a través del siguiente
objetivo de investigación. Se presenta una vía para desarrollar estas competencias mediante un
enfoque constructivista, donde docentes y estudiantes pueden generar sus recursos con fines
didácticos (Abdala & Palliotto, 2011). Se muestran algunos resultados que sirvan de motivación
para la elaboración de nuevos productos para las tareas de investigación científica.
En tal sentido, el objetivo del presente trabajo es describir las diferentes aplicaciones de
diseño, programación y construcción de un recurso digital tecno-didáctico con valores agregados
a Excel, del tipo Excelia, para llevar a cabo el tratamiento estadístico descriptivo e inferencial,
sobre la base de datos primarios generados desde una investigación para la automatización de las
operaciones numéricas
Fundamentación Teórica
En esta parte se describen los términos utilizados en la construcción del producto de la
investigación como lo es la herramienta para la investigación científica en escala Likert. La
construcción de dicha herramienta se inicia a partir de la matriz de datos primarios generados desde
los ítems del instrumento de investigación, la cual es una tabla de doble entrada: sujetos por ítems,
construida en una hoja de cálculo de Excel. Esta matriz es ampliada con la incorporación de nuevas
columnas, insertadas convenientemente, entre los ítems, correspondientes a los nuevos valores
obtenidos para los indicadores, dimensiones y variables. Estos valores corresponden a los
promedios de los ítems para el indicador que los agrupa, así mismo para los promedios de estos
indicadores para los nuevos valores de las dimensiones y así de estos ultimos para las dimensiones
y variables.
El análisis estadístico descriptivo se lleva a cabo para cada una de las unidades de análisis
mencionadas en el párrafo inmediato anterior. Las medidas estadísticas utilizadas para este análisis
son la desviación estándar y el promedio aritmético. Estas dos medidas se interpretan según sus
respectivos baremos construidos para ello. Entonces se construye un baremo para la desviación
estándar que permita categorizar la representatividad del promedio y un baremo para categorizar
la tendencia del promedio hacia una de las cinco alternativas de respuestas propias de la escala
Likert.
Luego de realizado el análisis descriptivo sobre la muestra, el cual arrojó las tendencias de
las repuestas sobre algunas de las alternativas de la escala Likert, se hace necesario determinar,
mediante la correspondiente prueba estadística, la validez comprobada estadísticamente de dicha
tendencia, mediante el análisis inferencial, particularmente llevado a cabo con la prueba No
Paramétrica Chi Cuadrado. En este análisis se busca rechazar la hipótesis nula que afirma la
igualdad (No Diferencias significativas) entre las proporciones de respuestas para las cinco
alternativas, en contraste con la hipótesis alterna que afirma la existencia de alguna tendencia, la
cual no es otra que la señalada por la tendencia central señalada por el promedio en el análisis
descriptivo.
Toda la teoría anterior sustenta la construcción del producto final que se califica como un
recurso digital tecno-didáctico con valores agregado a Excel (Carrasquero, 2023), el cual se fija de
manera permanente para su utilización inmediata o futura, tal cual software estadístico que arroja
de forma expedita los resultados automatizados provenientes de un instrumento de investigación
en escala de Likert.
El software estadístico
Los profesores y estudiantes universitarios deben estar familiarizados con el uso de software
estadístico, el cual es una herramienta que permite automatizar el análisis de datos, agilizando
procesos y mejorando la interpretación de la información. Estos programas organizan, estructuran
y presentan datos de manera clara, facilitando la identificación de correlaciones, regresiones y
variaciones entre las variables analizadas. Además, ayudan a detectar información duplicada o
datos inusuales durante la curación de la información, lo que contribuye a la precisión de los
resultados. Aunque suelen ser empleados por especialistas, su accesibilidad y facilidad de uso los
hacen valiosos para cualquier investigador. También generan informes detallados y gráficos
comprensibles que permiten visualizar tendencias y patrones de manera efectiva, favoreciendo la
toma de decisiones fundamentadas dentro de una investigación (TUTFG, 2024).
SPSS
Este software estadístico, adquirido por IBM en 2009, fue desarrollado con el propósito de
facilitar el análisis y la gestión de datos en investigaciones de ciencias sociales. Con el tiempo, su
uso se ha extendido ampliamente en el ámbito académico, convirtiéndose en una herramienta
fundamental en diversas disciplinas. Su interfaz intuitiva permite que los usuarios realicen análisis
complejos sin grandes dificultades, aunque contar con conocimientos básicos sobre estadística es
recomendable para aprovechar al máximo sus funcionalidades. Gracias a su versatilidad, es ideal
para la aplicación de estadísticas descriptivas, análisis de factores y otros métodos avanzados,
proporcionando resultados precisos y cilmente interpretables que contribuyen al desarrollo de
investigaciones rigurosas (TUTFG, 2024).
Excel
Microsoft Excel es un software de aplicación que permite la gestión y análisis de datos
mediante hojas de cálculo. Según Raffino (2025), Excel es una herramienta que brinda soporte
digital a labores contables, financieras y organizativas, facilitando la automatización de cálculos y
la representación gráfica de información. Su versatilidad lo ha convertido en una de las
aplicaciones más utilizadas en el ámbito académico y profesional.
Python
Es ampliamente reconocido como un lenguaje de programación versátil, pero su utilidad va
mucho más allá del desarrollo de software. En los últimos años, ha ganado popularidad como una
poderosa herramienta para el análisis de datos, destacándose por su capacidad para importar,
exportar, limpiar y transformar conjuntos de datos, funciones esenciales para garantizar la calidad
de la información utilizada en investigaciones. Su flexibilidad y la gran cantidad de bibliotecas
especializadas, lo convierten en una opción preferida en el ámbito académico y profesional. Sin
embargo, a diferencia de otros programas estadísticos más intuitivos, Python requiere
conocimientos básicos de programación para su correcto uso, lo que puede representar una barrera
para quienes no están familiarizados con el código. A pesar de ello, su potencial para manejar
grandes volúmenes de datos y automatizar procesos lo hace una herramienta indispensable para
quienes buscan análisis avanzados y eficientes (TUTFG, 2024).
SAS
Se encuentra entre los mejores softwares estadísticos disponibles en la actualidad. Es el
favorito de las industrias más fuertes del mercado. La innovación que supone este programa es que
incorpora inteligencia artificial para automatizar el análisis de datos. Por lo tanto, esta herramienta
permite el análisis avanzado, el multivariante, el predictivo y la gestión de datos. Al igual que
Python, el usuario de SAS debe tener conocimientos básicos sobre estadística (TUTFG, 2024).
STATA
Es un software estadístico desarrollado por StataCorp LP, ampliamente utilizado en
disciplinas como economía, sociología, biomedicina y epidemiología debido a su capacidad para
gestionar y analizar grandes volúmenes de datos con precisión. Su interfaz intuitiva y extensa gama
de herramientas permiten realizar análisis de regresión, series de tiempo, modelos multivariados y
estudios de supervivencia, ofreciendo gráficos de alta calidad para visualizar tendencias. Además,
cuenta con su propio lenguaje de programación, que posibilita personalizar modelos y automatizar
procesos, facilitando investigaciones avanzadas. Su integración con otros programas y su
capacidad de manejar bases de datos complejas lo convierten en una opción esencial en el ámbito
académico y profesional (Llamas, 2023).
Metodología
Esta investigación se caracteriza por tener un enfoque cuantitativo, diseño documental,
alcance descriptivo, de tipo aplicada, combinando el desarrollo de un producto útil en el ámbito
científico con el análisis detallado de una realidad específica y la consulta de fuentes documentales.
Según Tamayo y Tamayo (2006), la investigación aplicada busca resolver problemas concretos y
generar soluciones prácticas, como en este caso, la optimización del procesamiento automatizado
de datos. Por su parte, Hernández Sampieri y Mendoza (2018) es descriptiva, ya que especifica
características y propiedades de los conceptos involucrados en el tema bajo estudio para su análisis
y evaluación, en una situación específica. A su vez, Arias (2016) sostiene que la investigación
documental basada en la búsqueda, análisis e interpretación de información obtenida de fuentes
secundarias, lo que se refleja en la revisión bibliográfica, incluyendo trabajos previos como el de
Carrasquero (2023).
Para llevar a cabo la construcción del recurso digital tecno-didáctico Excelia, con valores
agregados a Excel, con el objeto de automatizar, tanto el análisis estadístico descriptivo como el
inferencial, se trabajó en el ambiente del software Microsoft Excel 2010, con funciones de hoja de
cálculo, para la sustitución de las operaciones numéricas manuales. La intención es la
disponibilidad de una hoja de lculo de Excel, un recurso tecnológico, de manera que sea
permanente y activo, de disposición inmediata para el usuario en las tareas de investigación
científica. A partir de estas construcciones, se pueden generar nuevas funciones o aplicaciones que
Excel no contempla, según el problema de estudio que se presente.
Con respecto al proceso de construcción del producto de investigación, este posee valores
agregados a Excel con fines estadísticos, a partir del Excel 2010. Este nuevo recurso, del tipo
procesador de datos estadísticos, permitirá una nueva manera expedita de llevar a cabo el análisis
de los resultados de una investigación de enfoque cuantitativo con escala Likert. Además, también
se puede considerar un recurso instruccional en la enseñanza de la Estadística.
Resultados y Discusión
A continuación, se describe con detalle el proceso para obtener un diseño de Base de Datos
Ampliados desde los ítems en escala Likert, hasta las variables, pasando por los indicadores y
dimensiones, anexándole los dos análisis estadísticos, tanto el descriptivo como el inferencial. Así
se tienen las siguientes etapas: (1) Matriz de Datos Primarios, (2) Matriz de Datos Ampliada, (3)
Anexión del análisis descriptivo, (4) Anexión del análisis inferencial y (5) Interpretación
estadística de los resultados.
Matriz de Datos Primarios
Luego de recoger los datos mediante instrumentos en escala Likert respondidos por todos los
encuestados se debe construir primeramente la Matriz de Datos Primarios o matriz original, donde
estén todas las repuestas dadas (por ejemplo, 10 sujetos) en todos los ítems (por ejemplo 12 ítems).
Esta es una tabla de doble entrada (Sujetos x Ítems) construida en Excel, tal como se muestra en la
Figura 1.
Esta matriz se va llenando línea por línea, o sea sujeto por sujeto: primero la línea 1 del sujeto
1, luego la nea 2 y así sucesivamente. Seguidamente se insertan columnas nuevas para los
indicadores. Por ejemplo, si el primer indicador está integrado por los ítems 1, 2 y 3, entonces la
columna del indicador 1 se ubica inmediatamente después del ítem 3. Para ello se ubica en
cualquier celda del ítem 3 y con el botón derecho hace clic y selecciona insertar + insertar toda una
columna.
Figura 1
Matriz de Datos Primarios
Nota. Elaboración propia (2025) a partir de Excel 2010
SUJETOS Item1 Item2 Item3 Item4 Item5 Item6 Item7 Item8 Item9 Item10 Item11 Item12
11 3 2 5 4 4 1 2 2 3 3 3
22 4 1 5 5 3 2 3 1 4 5 5
32 2 2 4 5 5 3 2 2 3 4 4
41 3 3 5 4 4 2 1 3 2 3 3
53 3 2 4 3 3 1 2 2 1 2 2
65 4 4 3 2 4 1 3 1 5 1 1
74 5 5 4 1 3 2 2 2 3 3 2
83 1 2 5 3 3 1 1 3 3 3 3
92 2 1 4 4 4 3 4 4 3 2 3
10 1 3 2 5 4 2 2 3 3 2 4 3
Es importante agregar que, si el investigador utiliza la herramienta informática denominada
Google Forms, con su instrumento de investigación ya validado, esta aplicación devolverá en una
hoja de cálculo una tabla similar a esta denominada matriz de datos primarios. Conjuntamente con
dicha hoja de cálculo, la aplicación envía las frecuencias y el grafico estadístico de diagrama de
barras.
Matriz Ampliada
A partir de la matriz de datos primarios anterior, se inserta una columna para cada indicador,
ubicada según sus ítems, para cada dimensión según sus indicadores y para cada variable con sus
dimensiones. Estas nuevas columnas llevan como datos los promedios de sus elementos
integradores: los indicadores con los promedios de sus ítems y a las dimensiones con los
promedios de sus dimensiones y las variables con las medias de sus dimensiones. El resultado es
la matriz mostrada en la Figura 2.
Figura 2
Matriz ampliada
Nota. Elaboración propia (2025) a partir de Excel 2010
Análisis Descriptivo
Luego de obtener la matriz ampliada, se le agregan cuatro filas en la parte inferior para anexar
la desviación estándar (desvest) y su baremo, la media y su baremo. Estos cuatro elementos son
todos automatizados con Excelia (Figura 3). El valor promedio indicará una tendencia según su
baremo automatizado, con una confiabilidad o representatividad baremada automáticamente por el
valor de la desvest. Es necesario construir los baremos automatizados para la desvest y la media
en el análisis descriptivo para categorizar la representatividad medida en la desvest y la tendencia
en la media de manera inmediata.
Figura 3
Excelia y el Análisis Descriptivo
Nota. Elaboración propia (2025) a partir de Excel 2010
Baremo para la desvest
El máximo valor que puede tomar el valor de la desvest es: 𝑆 = 2 cuando hay solo datos
extremos 1 y 5, en la misma cantidad. A continuación, se visualiza esta afirmación (Figura 4)
Figura 4
Máximo valor de la Desviación Estándar (Desvest)
Nota. Elaboración propia (2025) a partir de Excel 2010
Por lo tanto, el rango de valores de la desvest es: [0, 2]. Este rango se divide en 5 partes,
quedando los intervalos como se indican en la Tabla 1.
Tabla 1
Baremo para la Desvest
Intervalo
Descripción
Calificación
0.00 0.40
Muy baja dispersión = Muy Alta Representatividad
MAR
0.41 0.80
Baja dispersión = Alta Representatividad
AR
0.81 1.20
Dispersión media = Mediana Representatividad
MR
1.21 1.60
Alta dispersión = Baja Representatividad
BR
1.61 2.00
Muy alta dispersión = Muy Baja Representatividad
MBR
Nota. Elaboración propia (2025)
Baremo para la Media
De igual manera, se divide el rango de la media aritmética [1 , 5], resultando lo que se
muestra en la Tabla 2.
Tabla 2
Baremo para la Media
Intervalo
Descripción
1.00 1.80
Nunca o Totalmente en Desacuerdo
1.81 2.60
Casi nunca o En Desacuerdo
2.61 3.40
A veces o Ni Ni
3.41 4.20
Casi siempre o De Acuerdo
4.21 5.00
Siempre o Totalmente De Acuerdo
Nota. Elaboración propia (2025)
Análisis Inferencial
La tendencia puede ser falsa debido a la aleatoriedad de la muestra, entonces se hace
necesario validar dicha tendencia mediante un Análisis Inferencial con la prueba de bondad de
ajuste de Chi Cuadrado, tal como se muestra en la Figura 5.
Figura 5
Análisis Inferencial
Nota. Elaboración propia (2025) a partir de Excel 2010
La decisión de tomar la prueba Chi Cuadrado obedece a que es no paramétrica y no exige la
normalidad en la distribución de los datos. Con ella se decide si hay o no diferencias significativas
entre las proporciones o frecuencias de las cinco alternativas de la escala Likert. Si se acepta la
hipótesis nula significa que no hay diferencias y por lo tanto no hay tendencia. Si se rechaza, indica
que hay diferencias significativas y por lo tanto existe una tendencia y ésta es la señalada por la
media aritmética en el análisis descriptivo.
El análisis inferencial con la prueba No paramétrica Chi Cuadrado, parte de las frecuencias
agrupadas (observadas: O), dado que los indicadores, dimensiones y variables son del tipo
numéricas continuas. En este recurso, lo único manual es la introducción de datos porque los
baremos y la misma decisión de las pruebas de hipótesis son automatizadas (Figura 6).
Figura 6
Excelia. Análisis Inferencial
Nota. Elaboración propia (2025) a partir de Excel 2010
Interpretación de los resultados
Se plantea la siguiente situación: Se encuestó a un grupo de estudiantes de una Facultad,
respecto al cumplimiento de las responsabilidades sociales de la universidad. Se tiene:
Variable: Servicios Públicos Universitarios.
Dimensión: Atención a los estudiantes.
Indicador 1: Transporte universitario.
Ítem 1. ¿Has usado el transporte estudiantil para ir a la Universidad?
Ítem 2. ¿Has visto pasar el bus rodando por la ciudad?
Ítem 3. ¿Pasa el bus por tu barrio?
Las respuestas se ilustran en la Figura 7.
Figura 7
Resumen Estadístico
Nota. Elaboración propia (2025) a partir de Excel 2010
Interpretación de los resultados estadísticos
Los estudiantes respondieron con Alta Representatividad (0.78) que nunca (1.7) Han usado
el transporte estudiantil para ir a la Universidad (ítem 1). Con mediana representatividad (1.10)
dijeron que a veces (3.00) han visto pasar el bus rodando por la ciudad (ítem 2). Sin embargo,
afirman con debilidad (1.20), que casi nunca (2.40) pasa el bus por su barrio (ítem 3). En resumen,
respecto al servicio de transporte universitario, los estudiantes dijeron con alta confiabilidad (0.57)
que casi nunca (2.37) gozan del servicio, es decir es escaso el servicio de transporte universitario.
Es importante destacar que, la automatización de las otrora tareas estadísticas manuales que,
aunque después se contaba con el software SPSS, entre otros, aun persistía el problema de su
adquisición y manejo. El síndrome TMT (Todo Menos Tesis) tiene un factor menos que le
coadyuve en su existencia, por lo menos cuando de escala Likert se trate: las estadísticas ya no
serán la razón del síndrome. El análisis estadístico descriptivo se hará mediante la desvest y la
media aritmética para esta escala, ambas medidas categorizadas automáticamente con sus
respectivos baremos. La desvest se baremará para medir el nivel de representatividad que indique
la confiabilidad con que gozarán las afirmaciones respecto de la tendencia, derivadas de cada
promedio interpretado en su respectivo baremo.
El promedio generado desde las respectivas unidades de análisis, automatizado con su
baremo en el análisis estadístico descriptivo, indicará sin hacer un solo cálculo no automatizado,
la tendencia central de la conducta de las variables, dimensiones e indicadores, acompañado de un
indicador de confiabilidad de las afirmaciones de las tendencias, como lo es la desvest y su
medición en la representatividad.
El enfoque positivista se ve fortalecido por el apoyo que ahora le brindará Excelia,
suavizando las tareas numéricas haciéndolas automáticas, con el incremento de más investigadores
por estos caminos de la estadística. Ya no tendrán que tomar otras rutas por el simple problema
que significaban las estadísticas y la falta de dominio de esas herramientas para el procesamiento
de los datos primarios generados desde la investigación propiamente dicha a través del instrumento
de investigación escala Likert.
Las herramientas teóricas, ahora con más tiempo para dedicarles por el ahorro que brinda
este nuevo recurso, se abordarán con más profundidad mediante la interpretación de los resultados
a la luz del estadístico usado, tal como el promedio o las proporciones entre las más usuales en el
medio de las ciencias sociales, sin el temor de sus laboriosos, extensos y complejos manejos
operacionales, bien sean del software utilizado o del cálculo, manual en el peor de los casos.
Con Excelia, los cálculos estadísticos de hoy en día sobre las alternativas de la escala Likert,
ya no serán manuales ni con software extraño, de complejo manejo y de no fácil adquisición, los
cuales ameritaban un exagerado tiempo, sin dejar por fuera la posible existencia del error humano
Medidas
Item1
Item2
Item3
Ind1
Desvest
0.78
1.10
1.20
0.57
Repres
AR
MR
BR
AR
Media
1.7
3
2.4
2.3667
Tendencia
N
AV
CN
CN
de lculo en el informe estadístico. Hoy se cuenta con Excelia, construible por el mismo
investigador en la hoja de cálculo de Excel, que facilita la tarea investigativa en la parte estadística,
inclusive hasta en la toma de decisión de aceptar o rechazar a hipótesis nula en la prueba estadística
del análisis inferencial.
Conclusiones
Con el nuevo producto digital tecno-didáctico Excelia, con valores agregados a Excel, como
herramienta para la investigación científica en escala Likert, se logra facilitar el procesamiento de
datos estadísticos de forma expedita, sin necesidad de tomar las rutas preestablecidas de análisis,
propias del software estadístico tradicional. Con Excelia, cada dato que se procesa va modificando
in situ y de ipso facto, las medidas estadísticas descriptivas, así como la representatividad y la
tendencia expresada en los baremos automatizados, hasta llegar al resultado final luego de procesar
el último dato.
Excelia es de fácil construcción por parte del investigador, ya que sólo significa: elaborar
tablas de doble entrada de Excel; insertar o eliminar filas y columnas; funciones estadísticas
promedio y desvest; función lógica Si de Excel para construir los baremos. Con el recurso ya
construido, el investigador solo debe introducir la data primaria original para cada ítem y los
resultados estadísticos se van dando in situ de ipso facto, tanto para los ítems como para los
indicadores, dimensión y variable.
Se pueden agregar gráficos estadísticos opcionalmente si se desea visualizar resultados, tales
como Diagrama de Barras, Histogramas, entre otros. Cualquier error de introducción de un dato
incorrecto sobre algún ítem se puede corregir y Excelia hará la corrección inmediata sobre los
resultados afectados. Los softwares corrientes, como SPSS, no realizan estas reparaciones sobre
los resultados, es necesario solicitar de nuevo los resultados ya corregidos.
El análisis descriptivo con Excelia, arroja los valores numéricos de la desvest y su
correspondiente ubicación automática en su respectivo baremo de representatividad. También
arroja los valores numéricos de la media aritmética y su correspondiente ubicación automática en
su respectivo baremo de la tendencia. El software tradicional emite solo los valores numéricos de
la desvest y el promedio, sin las categorizaciones de los mencionados baremos, es el investigador
quien debe hacerlo e interpretarlo manualmente.
El análisis inferencial con Excelia arroja el test Chi Cuadrado, con la prueba de bondad de
ajuste para las diferencias entre proporciones, genera una distribución de datos agrupados en cada
test para las frecuencias o proporciones, las cuales serían sometidas a la prueba estadística para
determinar si existen o no diferencias significativas entre ellas. El ritual o protocolo de los 5 pasos
de la prueba de hipótesis, es realizado de forma automática en su totalidad, incluyendo la decisión
final sobre aceptar o no la hipótesis nula referente a las diferencias entre las proporciones que
indiquen o no la existencia de la tendencia indicada en el promedio aritmético. El software
tradicional solo genera el p-valor identificado como Sig. que debe interpretarse, lo cual no ha sido
efectivo hasta ahora, para tomar la decisión de la correspondiente prueba estadística
Esta manera automatizada del procesamiento de datos, así como del análisis estadístico
descriptivo y del mismo análisis inferencial, es favorable para cualquier persona que quiera hacer
una investigación científica. No hay un solo cálculo numérico manual. Eso coadyuva a cero errores
personales, ahorro de tiempo y evitar la complejidad del proceso inferencial.
Las pruebas estadísticas han alcanzado un alto grado de automatización, permitiendo la toma de
decisiones sobre la aceptación o el rechazo de la hipótesis nula sin la intervención directa del
investigador, reduciendo la posibilidad de errores humanos. Asimismo, los baremos automatizados
también son un gran apoyo, donde no se pierde tiempo comparando el resultado de la desvest de
la media con el cuadro del baremo, automáticamente es arrojado por Excelia el resultado de ambos
baremos. De este modo, la labor del investigador se concentra exclusivamente en la interpretación
de los resultados obtenidos, lo que agiliza el desarrollo del estudio y mejora la precisión de las
conclusiones.
Referencias
Abdala, L., & Palliotto, M. (2011). Un enfoque constructivista en la enseñanza y el aprendizaje de
la matemática para el desarrollo de competencias. Revista REDHECS, 6(11), 91-113.
https://dialnet.unirioja.es/servlet/articulo?codigo=4172063
Albornoz, L. (2017). Competencias tecnológicas para potenciar las habilidades lógicas
matemática en los estudiantes de educación media general del Municipio Mara [Trabajo de
maestría]. Universidad del Zulia.
Aragón, M. (2016). El uso de software estadístico en la investigación social: el riesgo de anteponer
una herramienta metodológica al problema de investigación. CEASGA.
Avello, M., & Seisdedo, L. (2017). El procesamiento estadístico con R en la investigación
científica. MediSur, 15 (5), 583-586.
https://www.medigraphic.com/cgi-bin/new/resumen.cgi?IDARTICULO=77573
Buzzo Garrao, R. (2007). Estrategia EE (Excel-Euler) en la enseñanza de la Física. Latin-American
Journal Physics Education, 1(1), 19-23.
http://www.lajpe.org/sep07/BUZZO_final.pdf
Cáceres, M., Pelcastre, Y., García, O., & González, M. (2025). Las estrategias didácticas del
docente y su relación con el aprendizaje significativo en Matemáticas. Revista Mexicana de
Investigación e Intervención Educativa, 4(S1), 124-134.
https://pablolatapisarre.edu.mx/revista/index.php/rmiie/article/view/155
Carrasquero Cabrera, E. (2023). Excelia: recurso digital tecno-didáctico de valores agregados a
Excel. Encuentro Educacional, 30(1), 11-31.
https://doi.org/10.5281/zenodo.8083262
Hernández-Sampieri, R. & Mendoza, C. (2018). Metodología de la investigación. Las rutas
cuantitativa, cualitativa y mixta. McGraw Hill
Llamas, J. (5 de marzo de 2023). STATA. Economipedia.
STATA | Economipedia
Mena, A. & Restrepo, F. (2018). Enseñanza y aprendizaje de la función lineal: un estudio desde
la teoría modos de pensamiento [Trabajo de maestría]. Universidad de Medellín.
Hacer TFG. (11 de mayo 2022). Síndrome «Todo menos Tesis».
https://hacertfg.com/sindrome-todo-menos-tesis/
Raffino, E. E. (23 de abril de 2025). Excel. Enciclopedia Concepto.
https://concepto.de/excel/.
Rega Armas, D., Guerra Véliz, Y., & Leyva Haza, J. (2021). Los métodos numéricos, el Excel y
la Física en la carrera de ingeniería agrónoma. Cuadernos de Educación y Desarrollo, 13(7),
84-98.
https://dialnet.unirioja.es/servlet/articulo?codigo=8975882
Roque, R. (2022). La enseñanza de la estadística para la investigación: algunas recomendaciones
reflexionadas desde la praxis. Revista Educación, 46(2), 646-656.
https://www.scielo.sa.cr/scielo.php?script=sci_arttext&pid=S2215-26442022000200646
TUTFG. (2024). Tipos de software estadístico para utilizar en tu investigación.
https://tutfg.es/software-estadistico/