1
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
2
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
3
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
REVISTA TÉCNICA CIENTÍFICA DE LA FIE
RIOBAMBA - ECUADOR
REVISTA PERSPECTIVAS
ENERO - JUNIO 2025
e - ISSN: 2661 - 6688
VOL 7, N°1
Instituto de
Investigaciones Dirección de
Publicaiciones
4
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
JULIO - DICIEMBRE 2025
http:perspectivas.espoch.edu.ec/
PRÓXIMA
CONVOCATORIA
CONVOCATORIA DE RECEPCIÓN DE MANUSCRITOS
PERIOCIDAD SEMESTRAL
1ERA CONVOCATORIA:
2DA CONVOCATORIA:
Recepción abierta hasta octubre
Recepción abierta hasta Abril
Publicación: Enero
Publicación: Julio
REVISTA PERSPECTIVAS
5
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
REVISTA PERSPECTIVAS
• DIRECTOR
Jorge Hernández Ambato, Ph.D.
Escuela Superior Politécnica de Chimborazo (Ecuador)
· SECRETARIO CIENTÍFICO
Mayra A. Pacheco Cunduri, M.Sc.
Escuela Superior Politécnica de Chimborazo (Ecuador)
· COORDINACIÓN PROCESO PUBLICACIÓN
Dr. Fernando Tello Oquendo
Escuela Superior Politécnica de Chimborazo (Ecuador)
· REVISOR DE IDIOMA INGLÉS
Nelly Padilla Padillla, M.Sc.
Escuela Superior Politécnica de Chimborazo (Ecuador)
· EDICIÓN DE DISEÑO Y DIFUSIÓN
Rosa Ramos Jiménez, M.A.
Escuela Superior Politécnica de Chimborazo (Ecuador)
· DISEÑO Y DIAGRAMACIÓN
José Luis Heredia Hermida Mgtr.
Escuela Superior Politécnica de Chimborazo (Ecuador)
· EDITOR EJECUTIVO
Diego Ávila Pesantez, Ph.D.
Escuela Superior Politécnica de Chimborazo (Ecuador)
· EDITORES ASOCIADOS
Raúl Antonio Aguilar Vera, Ph.D.
Universidad Autónoma de Yucatán (México)
Jesús Pardo Calvache, Ph.D.
Universidad del Cauca (Colombia)
Rosa Sumactika Delgadillo Ávila de Mauricio, Ph.D.
Universidad Nacional Mayor de San Marcos (Perú)
George Enrique Figueras Benítez, Ph.D.
Universidad Simón Bolivar (Venezuela)
Luis Antonio Rivera Escriba, Ph.D.
Universidade Estadual do Norte Fluminense (Brasil)
Talia Beatriz Tene Fernandez, Ph.D.
Universidad Técnica Particular de Loja (Ecuador)
COMITÉ EDITORIAL
III
6
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
REVISTA PERSPECTIVAS
Lorena Molina Valdiviezo, Ph.D.
Universidad Nacional de Chimborazo (Ecuador)
Eliana Acurio Méndez, Ph.D.
Escuela Politécnica Nacional (Ecuador)
Miguel Delgado Prieto, Ph.D.
Universidad Politécnica de Cataluña (Ecuador)
Luis Tello Oquendo, Ph.D.
Universidad Nacional de Chimborazo (Ecuador)
Ciro Radicelli García, Ph.D.
Universidad Nacional de Chimborazo (Ecuador)
Patricio Humanante Rámos, Ph.D.
Universidad Nacional de Chimborazo (Ecuador)
Edison Espinosa, Ph.D.
Universidad de las Fuerzas Armadas (Ecuador)
Juan Carlos Estrada, Ph.D.
Universidad de Guadalajara (México)
Lorena Guachi Guachi Núñez, Ph.D.
Universidad Internacional del Ecuador (Ecuador)
Edison Taco Lasso, Ph.D.
Universidad San Francisco de Quito (Ecuador)
Maricela Jiménez Rodríguez, Ph.D.
Universidad de Guadalajara (México)
Luis Miguel Procel Moya, Ph.D.
Universidad San Francisco de Quito (Ecuador)
Cristian Vacacela Gómez, Ph.D.
INFN-National Laboratory of Frascati (Italia)
COMITÉ CIENTÍFICO
IV
7
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
REVISTA PERSPECTIVAS
V
1 - 15
8
16 - 23
31 - 47
48 - 57
58 - 64
65 - 71
72 - 80
81 - 87
88 - 97
24 - 30
Evaluación de la Eciencia y Portabilidad de la
Herramienta Web (Geria) para Registro de las
Actividades Diarias del Adulto Mayor Según la
Norma de Calidad de Desarrollo de Software
ISO 25012
Transmisión de mensajes en código ascii
utilizando un prototipo de comunicación láser
submarina de alta potencia (50mw) en dos
escenarios controlados
Music Playback by Plasma Generation with FIR
Filter Implementation in Matlab
Machine Learning Algorithms for Predictive
Maintenance: A Systematic Literature Mapping
Estrategias de Mantenimiento Correctivo
de software: Un Estudio de Caso de la
Organización Comunitaria CACTU
Capital Humano de la Industria de Software en
San Francisco de Campeche
Metodología para Medir la Función de
Transferencia en Tiempo Real de Sistemas
Dinámicos en Operación.
Marco de trabajo para Proyectos de Ciencia
Ciudadana
Experimentación en Ingeniería de Software:
Caso de estudio programación en pareja
Modelo para la evaluación objetiva de
interfaces mediante el análisis de los patrones
de atención visual obtenidos con eye-tracking
CONTENIDO
PRESENTACIÓN
8
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
REVISTA PERSPECTIVAS
Apreciables lectores,
Con gran entusiasmo, damos a conocer la publicación del número 1 del volumen 7 de
nuestra revista cientíca “Perspectivas”, una iniciativa de la Facultad de Informática
y Electrónica de la ESPOCH. En este número, presentamos investigaciones
relacionadas con las áreas de informática, electrónica, y telecomunicaciones, temas
de gran relevancia y actualidad que sabemos serán de interés para nuestra comunidad
académica y profesional.
Queremos expresar nuestro más sincero agradecimiento a todos quienes hacen
posible la continuidad de esta revista: a los autores que confían en este espacio para
divulgar sus valiosas contribuciones técnico-cientícas, al equipo de revisores, cuyo
compromiso con la excelencia editorial garantiza publicaciones de alta calidad, y a las
autoridades institucionales y el equipo editorial, cuyo apoyo resulta fundamental para
el éxito de esta publicación.
Les recordamos que la recepción de manuscritos permanece abierta. Invitamos a la
comunidad universitaria a enviar sus propuestas, las cuales, tras el respectivo proceso
de revisión, formarán parte de los próximos números de este año 2025.
Gracias por su conanza y por ser parte de la revista cientíca “Perspectivas”.
Cordialmente,
Dr. Diego Ávila Pesantez
Editor Ejecutivo
PRESENTACIÓN
VI
Dr. Diego Ávila Pesantez
Editor Ejecutivo
9
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
10
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
1
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
EVALUACIÓN DE LA EFICIENCIA Y PORTABILIDAD
DE LA HERRAMIENTA WEB (GERIA) PARA
REGISTRO DE LAS ACTIVIDADES DIARIAS DEL
ADULTO MAYOR SEGÚN LA NORMA DE CALIDAD
DE DESARROLLO DE SOFTWARE ISO 25012
1 Facultad de Mecánica, Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador
2,3 Facultad de Informática y Electrónica, Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador
4,5 Investigador Independiente, Riobamba, Ecuador
RESUMEN
Blanca Hidalgo 1
Alonso Álvarez 3
Cecilio Tasna 5
bhidalgo@espoch.edu.ec
aalvarez@espoch.edu.ec
tasnacecilio13@gmail.com
Lorena Aguirre 2
Jorge Jiménez 4
gaguirre@espoch.edu.ec
jajimenezr_96@hotmail.com
A partir de la crisis por la pandemia de la COVID
y sus implicaciones en la salud de las personas
de la tercera edad, se implementa una aplicación
web llamada “Geria” para gestionar la información
gerontológica en los centros de atención integral,
registrando actividades diarias y preguntas en base
a patrones de auto percepción funcional, basadas en
los indicadores del índice de Barthel identificando la
capacidad de una persona para realizar actividades
de manera dependiente o independientemente. La
aplicación se desarrolló usado la metodología XP
y una vez terminada la herramienta se midieron
los atributos de calidad del software acorde a la
normativa ISO 25012: eficiencia y portabilidad, para
ello se realizó el análisis estadístico de T de Student
para los 3 módulos de reportes correspondientes
a: actividades diarias, patrones funcionales y
actividades lúdicas, obteniendo como resultado un
nivel de significancia inferior a 0 (2.2E-16; 0.0006;
0.05 respectivamente).
Palabras Clave: Desarrollo de Software,
Evaluación de software, Calidad, Aplicaciones
web, metodología XP.
Evaluation of the Efficiency and Portability of the Web Tool (Geria)
for Recording the Daily Activities of the Elderly According to the
ISO 25012 Software Development Quality Standard
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN:
Fecha de Recepción: 29/06/2023. Fecha de Aceptación: 14/05/2024. Fecha de Publicación: 20/01/2025
DOI: https://doi.org/10.47187/perspectivas.7.1.199
ABSTRACT
Since the crisis caused by the COVID pandemic
and its implications on the health of the
elderly, a web application called "Geria" has
been implemented to manage gerontological
information in comprehensive care centers,
recording daily activities and questions based on
patterns of functional self-perception regarding
the indicators of the Barthel index to identify a
person's ability to perform activities in a dependent
or independent manner. The application was
developed using the XP methodology and once the
tool was finished, the software quality attributes
were measured according to the ISO 25012
regulations: efficiency and portability. For this, a
Student's T statistical analysis was performed for
the 3 reporting modules corresponding to: daily
activities, functional patterns, and recreational
activities, obtaining as a result a significance level
less than 0 (2.2E-16; 0.0006; 0.05 respectively).
Keywords: Software development, Software
evaluation, Quality, Web applications, XP
methodology.
2
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
En el año 2018 el Ministerio de Inclusión
Económica y Social del Ecuador (MIES) con
decreto 001SDA2-2, dio el visto bueno y asignó
presupuesto al proyecto de Ley Orgánica de
Adultos Mayores, la cual en una de sus actividades
se encarga de la administración y regularización
de los centros de atención integral al adulto mayor
del país, con el propósito de gestionar de manera
óptima la información geriátrica existente, sector
de la población que desde el año 2018 asciende a
los 1.264.245 millones, es decir, aproximadamente
el 7.2% población total [1].
Por otro lado, durante la crisis sanitaria generada
por la COVID y la imposibilidad de registrar
en situ las actividades de los adultos mayores
que asisten a los centros jerárquicos se vio la
oportunidad de desarrollar una herramienta
informática basada en el framework Django [2]
en la que se pueda gestionar la información que
se requiere para el seguimiento de actividades
de los pacientes y de esta manera tener un
mejor control de sus expedientes. Mediante la
evaluación de ciertos ejercicios lúdicos, el personal
gerontólogo podrá hacer uso del sistema para
diseñar diversas actividades que son necesarias
para el fortalecimiento de la memoria, atención,
lenguaje, y autoestima. Dichas actividades lúdicas
procederán a ser modeladas para un ambiente
informático y de esta manera el adulto mayor las
pueda realizar en interacción con la herramienta
de software.
Como objetivo de esta investigación se plantea el
desarrollar una aplicación web para el registro y
evaluación de las actividades diarias del adulto
mayor del Centro Gerontológico CAIAM mediante
el reconocimiento de las actividades que ahí se
realizan, siendo uno de ellos el reconocimiento
de patrones funcionales [3] que existen en el
campo de la geriatría, la herramienta de software
implementa los módulos correspondientes a:
gestión, registro e implementación de actividades
dicas para la memoria, atención, lenguaje y
autoestima de los adultos mayores del centro bajo
la norma de calidad de desarrollo de software ISO
25012. [4].
I. Introducción El presente trabajo costa de 5 partes: la introducción
donde consta una breve descripción del problema
sobre la falta de gestión y disponibilidad de la
información de los centros gerontológicos, se hace
referencia a trabajos relacionados, y la propuesta
para la implementación de la aplicación web,
para la segunda sección se considera la revisión
de la literatura en donde se aborda información
tanto de la parte técnica relacionada al desarrollo
de software y atributos de calidad y lo referente
a la normativa técnica aplicada a la población
adulta mayor como información referente al
índice de Barthel indispensable para la valoración
respectiva de las actividades de los pacientes.
En la sección 3 el lector encontrará información
concerniente a la metodología seleccionada para
el desarrollo de software, que en este caso es la
metodología ágil XP. La sección 4 se corresponde
con la presentación de los resultados referentes a
la evaluación de los atributos de calidad: eficiencia
y portabilidad y para finalizar la sección 5 donde
se exponen las conclusiones a las que se llegó con
este trabajo.
A. Problema
Los centros de cuidado a adultos mayores tienen
como prioridad buscar el bienestar mental y
físico de las personas mayores a quienes ofrecen
un ambiente apropiado donde puedan disfrutar,
con dignidad y calidez, está etapa de su vida,
junto con otros adultos mayores y al cuidado de
personal calificado para esta tarea. Al no contar
con una herramienta automatizada se presenta el
problema de falta de gestión y de disponibilidad
de información de manera personalizada de
los pacientes, lo que no permite registrar una
configuración de comportamientos, más o menos
comunes a todos los adultos que contribuyan al
mejoramiento de su salud y de su calidad de vida.
B. Referencias a trabajos relacionados
Como parte de este estudio se realizó una
búsqueda de soluciones informáticas similares a
nuestro trabajo y sobre todo herramientas que se
utilizan en el área de geriatría, y se establecieron
ciertas aplicaciones clasificadas como software
médico de clínicas y consultas que normalmente
3
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
gestionan información de las historias clínicas de
los pacientes, pero no se adaptan a las necesitades
propias de los adultos mayores, entre las consultas
identicamos la aplicación Barthel ADL index
en la que se consideran los criterios del índice de
Barthel, pero no permite manejar reportes como
los requiere nuestro caso de estudio.
C. Propuesta
La implementación de la aplicación web para el
registro de actividades y evaluación diaria permite
evaluar la capacidad del adulto mayor de efectuar tales
actividades de forma dependiente o independiente.
Para el de desarrollo de esta herramienta se
utilizó el lenguaje de programación Python
y el Framework de desarrollo web de código
abierto Django [5]. La persistencia de datos usa
PostgreSQL, el diseño de las interfaces de usuario
se desarrolló usando el Framework Bootstrap.
Para las interacciones de los elementos HTML
se usó la biblioteca multiplataforma de JavaScript
llamada jQuery, que permite utilizar la técnica de
Ajax en las páginas web para mejorar el grado de
iteración entre las mismas.
La aplicación cuenta con 12 módulos:
Módulo de registro del adulto mayor: Donde
se registra a los adultos mayores del centro en
el sistema.
Módulo de registro de actividades diarias:
El personal gerontólogo registrará las
actividades que realizan los adultos mayores
en su día a día con su respectivo grado de
independencia.
Módulo de evaluación de actividades lúdicas:
Se especifican las actividades lúdicas para
el fortalecimiento de la memoria, atención,
lenguaje y autoestima tales como palabras
encadenadas, lectura y comentario de textos,
adivina qué es, juego del veo veo, formar
palabras, y ejercicios de memoria, atención y
recordatorio de imágenes.
Módulo de generación de reportes gráficos:
En este módulo se podrá analizar la facilidad
o complicación del adulto mayor para
efectuar las actividades diarias planteadas
en el módulo mediante un reporte gráfico
emitido por el sistema con los resultados
de las actividades realizadas, así como un
reporte gráfico general de todo el conjunto en
un día en específico.
Módulo de administración de actividades
diarias: En este módulo el personal
gerontólogo podrá insertar, modificar y
eliminar las actividades diarias que se
manejan en el centro.
Módulo de administración de patrones
funcionales: Se gestiona los patrones
funcionales que se manejan en el centro.
Módulo de administración de actividades
dicas: Se gestiona las actividades lúdicas.
• Módulo de reportes de auto percepción:
Se generarán reportes acerca de la auto
percepción a nivel fisiológica, psicológica,
social y espiritual de los adultos mayores.
Módulo de reportes diarios: Se establecen los
reportes diarios acerca de los adultos mayores,
sus respectivas actividades, y su capacidad de
efectuarlas o no independientemente.
Módulo de reportes semanales: En este
módulo el personal gerontólogo será capaz
de generar reportes semanales acerca
de los adultos mayores, sus respectivas
actividades, y su capacidad de efectuarlas o
no independientemente.
Módulo de reportes mensuales: Se generan
reportes mensuales acerca de los adultos
mayores, sus respectivas actividades,
y su capacidad de efectuarlas o no
independientemente.
Módulo de reportes anuales: Se generan
reportes anuales acerca de los adultos mayores,
sus respectivas actividades, y su capacidad de
efectuarlas o no independientemente.
4
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
II. Revisión de la literatura
A. Frameworks de desarrollo web
Consiste en una estructura software compuesta
de algunos elementos y componentes ya
preconfigurados y listos para el desarrollo de una
aplicación [6]. De igual manera un Framework se
puede considerar como una aplicación genérica
incompleta y configurable desde la que se puede
configurar un proyecto en particular aplicando la
lógica correspondiente.
Un Framework siempre trata de: acelerar el proceso
de desarrollo, reutilizar código ya existente y
promover buenas prácticas de desarrollo [7].
1. Frameworks de desarrollo web con
Python
Cada lenguaje o intérprete posee sus propios
Frameworks de desarrollo web, se dice que un
Framework en particular pertenece a un lenguaje de
programación en específico cuando el Framework
fue desarrollado en dicho lenguaje [5].
Django. Es un Framework web de código
abierto escrito en Python que permite construir
aplicaciones web de forma más ágil y con menos
código fuente. Django busca automatizar la mayor
cantidad de procesos posibles y su lema es el
principio DRY (Don't Repeat Yourself)[8].
A este trabajo se explicará los antecedentes que se
consideraron para identificar el problema inicial,
repasaremos algunos conceptos relacionados a los
Frameworks de desarrollo web, así como también
el signicado de los indicadores del índice de
Barthel para la calicación de las actividades
de la vida diaria considerados en este trabajo,
se repasan también los criterios de la norma de
calidad para el desarrollo de Software ISO 25012,
la metodología XP que fue utilizada para el
desarrollo de esta aplicación, la preparación de los
escenarios para establecer los resultados obtenidos
mediante un estudio estadístico de distribución
normal y finalmente las conclusiones a las que
hemos llegado.
2. Framework web Django para Python
Es un Framework de desarrollo web de licencia
libre desarrollado en Python y orientado a realizar
aplicaciones de cualquier nivel de complejidad
[9]. El patn de diseño que utiliza es similar al
paradigma del Modelo Vista Controlador MVC ya
conocido, únicamente presentando diferencia en
la estructuración de sus siglas, ya que Django lo
denomina Modelo-Vista-Template.
3. Arquitectura Django
La Arquitectura de Django se basa en el patn
Modelo Vista Controlador (MVC) [10]. Sin
embargo, Django define su estructura con una
pequeña diferencia, llamada modelo Vista-
Template la similitud entre el modelo MVC
tradicional con el modelo denominado como MVP
propio de Django, es tan grande que fácilmente el
Framework podría ser etiquetado bajo el modelo
MVC. La explicación de las siglas del Modelo
Vista Plantilla se detalla a continuación:
M: Lo correspondiente al acceso a la base
de datos, el Framework lo gestiona mediante
su Object Relational Mapper (ORM) por sus
siglas en inglés).
V: Lo correspondiente a la sección de los
datos, cuáles de ellos mostrar y cómo hacerlo,
se lleva a cabo en la vista o View.
P: Lo correspondiente a la presentación de
los datos en base a los procesos generados
por la Vista, el Framework administra la
configuración de las plantillas mediante
código HTML, CSS, JavaScript y todos sus
componentes, además de un elemento propio
de Django que permite ejecutar sentencias
de forma muy similar a Python dentro de la
plantilla o Template.
El Framework trabaja con un archivo macro
denominado models.py. En este archivo se lleva a
cabo el mapeo de los datos en una base de datos
bajo el principio de abstracción que utiliza el
Object Relational Mapper.
B. Norma técnica para la población adulta
mayor del Ecuador
El 9 de mayo del 2018 se pone en ejecución el
proyecto de Ley Orgánica de Adultos Mayores
5
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
C. Índice de Barthel
El indicador de las actividades de la vida diaria que
se maneja en el centro geriátrico es el denominado
como Índice de Barthel. El cual consiste en 10
actividades básicas de la vida diaria y la capacidad
de una persona para realizarlas independientemente
[12], como se muestra en la tabla I.
Una vez realizada la valoración respectiva de cada
actividad en un paciente en específico se obtiene
un indicador numérico sobre 100 puntos, este valor
indica el grado de dependencia o independencia
funcional de la persona, en este caso del adulto
mayor, para realizar las actividades del día a día.
D. Atributos de calidad de desarrollo de
software
Un atributo de calidad pude ser calificado como
una propiedad medible de un sistema, en el que se
especifica que si el sistema satisface las necesidades
de las partes interesadas.
que busca asegurar la disponibilidad y calidad
de servicios necesarios en todas las etapas del
envejecimiento, asegurando de esta manera una
vida digna para las personas adultas mayores
[11]. Siendo en febrero del año 2019 por decreto
presidencial que se genera denitivamente la
norma técnica y de regulación para la población
adulta mayor.
Haciendo referencia a la unidad de la normativa
que concierne a centros y servicios gerontológicos,
al índice correspondiente a administración y
gestión, se obtiene una serie de estándares para
la ejecución de albergues geriátricos y proyectos
socio educativos.
Estándar 9: Contarán con lineamientos y
orientaciones que responden al objetivo de
promover el envejecimiento positivo y ciudadanía
activa de los adultos mayores, para ello se realizará
un plan pedagógico con indicadores que permitan
medir los avances y aprendizajes de los adultos
mayores y sus familias.
Tabla 1
EJEMPLO DE ÍNDICE DE BARTHEL VALORADO
ActividadDescripción Puntaje
Comer
1. Dependiente
2. Necesita ayuda para cortar, extender, usar condimentos, etc.
3. Independiente (capaz de usar cualquier instrumento)
0
5
10
Trasladarse
entre la silla y
la cama
1. Dependientes no se mantiene sentado
2. Necesita ayuda importante (1 persona entrenada o2 personas), puede estar sentado
3. Necesita algo de ayuda (una pequeña ayuda física o ayuda verbal)
4. Independiente
0
5
10
15
Aseo personal 1. Dependiente
2. Independiente para lavarse la cara, las manos y los dientes, peinarse y afeitarse
0
5
Uso de retrete
1. Dependiente
2. Necesita alguna ayuda, pero puede hacer algo solo
3. Independiente (entrar y salir, limpiarse y vestirse)
0
5
10
Bañarse o
ducharse
1. Dependiente
2. Independiente para bañarse o ducharse
0
5
Desplazarse
1. Inmóvil
2. Independiente en silla de ruedas en 50 m
3. Anda con pequeña ayuda de una persona (física o verbal)
4. Independiente al menos 50 m con cualquier tipo de muleta, excepto andador
0
5
10
15
Subir y bajar
escaleras
1. Dependiente
2. Necesita ayuda física o verbal, puede llevar cualquier tipo de muleta
3. Independiente para subir y bajar
0
5
10
Vestirse y
desvestirse
1. Dependiente
2. Necesita ayuda, pero puede hacer la mitad aproximadamente sin ayuda
3. Independiente incluyendo botones cremalleras, cordones, etc.
0
5
10
Control de
heces
1. Incontinente (o necesita que le suministren enema)
2. Accidente excepcional (uno/semana)
3. Continente
0
5
10
Control de
orina
1. Incontinente, o sondado incapaz de cambiarse la bolsa
2. Accidente excepcional (máximo uno/24 horas)
3. Continente durante a menor 7 días
0
5
10
6
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Por este motivo la International Organization for
Standardization (ISO) en el año 1991 y teniendo en
cuenta el auge tecnológico de la época, establece
una serie de normas y criterios para el desarrollo
de software, es así como surge la normativa ISO/
IEC para el desarrollo de software de calidad.
Se identifican como atributos de calidad de
un producto software en el modelo de calidad
ISO25010 a los siguientes:
Adecuación funcional
Eficiencia de desempeño
• Compatibilidad
• Usabilidad
• Fiabilidad
• Seguridad
• Mantenibilidad
• Portabilidad
E. Norma de evaluación de calidad de datos
25012
La norma ISO/IEC 25012 orientada al análisis de
calidad de los datos surge a raíz de lo denominado
como familia ISO 25000 o SQuaRE [13].
La ISO SQuaRE afirma que, para desarrollar
software de calidad, es importante vericar
tanto la calidad del producto como la calidad del
proceso. Para la calidad del producto existe la
normativa 25010, mientras que para la calidad del
proceso está la normativa ISO 25012, orientada
al aseguramiento de la calidad de los datos. Para
el presente trabajo, se opta por el análisis de
la calidad de los datos mediante los modelos y
normas facilitadas por la ISO/IEC 25012 [14].
Dado que lo que determina el grado de calidad
de un sistema informático son netamente los
procesos utilizados para su producción. Y
siendo los datos el aspecto clave para la toma de
decisiones, se plantea el análisis de la calidad de
los datos del Software de Asistencia Integral al
Adulto Mayor “Geria.
La norma esta creada, pensando en los dos
grandes grupos de características de calidad:
lo referentes a la calidad de datos inherente
(satisfacción de las necesidades del usuario) y
la calidad de datos dependientes del sistema
(grado en que la calidad de datos es alcanzada
y preservada mediante el sistema). Es necesario
entonces conocer las características y sub
características de los atributos de calidad ya que
son las bases que se deben aplicar al momento de
evaluar la calidad del software.
Como características de calidad de datos
inherente y dependiente del sistema se tiene:
Eficiencia: Grado en el que los datos
tienen atributos que pueden ser procesados
y proporcionados con los niveles de
rendimiento esperados mediante el uso de
cantidades y tipos adecuados de recursos en
un contexto de uso específico.
Precisión: Grado en el que los datos tienen
atributos que son exactos o proporcionan
discernimiento en un contexto de uso
especíco.
Trazabilidad: Grado en el que los datos
tienen atributos que proporcionan un camino
de acceso auditado a los datos o cualquier
otro cambio realizado sobre los datos en un
contexto de uso específico.
Comprensibilidad: Grado en el que los
datos tienen atributos que permiten ser
leídos e interpretados por los usuarios y son
expresados utilizando lenguajes, símbolos
y unidades apropiados en un contexto de
uso específico. Cierta información sobre
la comprensibilidad puede ser expresada
mediante metadatos.
Disponibilidad: Grado en el que los datos
tienen atributos que permiten ser obtenidos
por usuarios y/o aplicaciones autorizadas en
un contexto de uso específico.
Portabilidad: Grado en el que los datos tienen
atributos que les permiten ser instalados,
reemplazados o eliminados de un sistema a
otro, preservando el nivel de calidad en un
contexto de uso específico.
Recuperabilidad: Grado en el que los datos
tienen atributos que permiten mantener y
preservar un nivel especíco de operaciones
y calidad, incluso en caso de fallos, en un
contexto de uso específico.
F. Consideraciones generales para el desarrollo
de la herramienta
7
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Siendo la norma técnica de atención al adulto
mayor el documento bajo el que deben regirse
todos los centros de atención geriátrica del país
[1], se desarrolló el aplicativo web en base a esta
norma y a las disposiciones específicas dispuestas
por el CAIAM. La aplicación web permitirá el
registro y evaluación de las actividades básicas de
la vida diaria (ABVD) del adulto mayor, acciones
tales como bañarse, alimentarse, trasladarse,
continencia, etc. [15], además del registro y
evaluación particular de cada adulto en cuanto
a su capacidad de efectuar independientemente
dichas actividades, esto se lo realiza con el
propósito de determinar un comportamiento más
o menos común a todas las personas de la tercera
edad, que contribuyen a su salud, calidad de
vida[16] y al logro de su potencial humano [17],
y que se dan de una manera secuencial a lo largo
del tiempo, denominados patrones funcionales.
[18]
Los patrones son - Patn 1: Percepción - manejo
de la salud - Patrón 2: Nutricional - metabólico
- Patrón 3: Eliminación - Patrón 4: Actividad -
ejercicio - Patrón 5: Sueño - descanso - Patrón 6:
Cognitivo - perceptual - Patrón 7: Autopercepción
– auto concepto - Patrón 8: Rol - relaciones -
Patrón 9: Sexualidad - reproducción - Patrón
10: Adaptación - tolerancia al estrés - Patrón 11:
Valores – creencias. [18]
Para la evaluación de las actividades lúdicas
[19], el personal gerontólogo podrá hacer uso del
sistema para diseñar diversas actividades que son
necesarias para el fortalecimiento de la memoria,
atención, lenguaje, y autoestima [20]. Dichas
actividades lúdicas procederán a ser modeladas
para un ambiente informático y de esta manera
el adulto mayor las pueda realizar en interacción
con la herramienta software.
Las actividades lúdicas se consideran actividades
que suelen efectuarse para el proceso del bienestar
físico, psíquico y social de las personas, en este
caso, de los adultos mayores [21]. Referenciando
a esta lista que consiste en un total de 19
dinámicas, se proponen las siguientes: Palabras
encadenadas, lectura y comentario de textos,
adivina qué es, descripción de recorridos, quién
es quién, al compás, formar palabras, y ejercicios
de memoria, atención y recordatorio de imágenes.
Toda la información recolectada y brindada
por el sistema será útil en cuanto a la toma de
decisiones en caso de presentarse complicaciones
con el adulto en un futuro.
Para este propósito se opta como herramienta
de desarrollo el lenguaje de programación
Python con su Framework de desarrollo web
de código abierto Django debido a su alto nivel
de acoplamiento con el sistema gestor de bases
de datos PostgreSQL, pero sobre todo por la
capacidad de la estructura del Framework que
permite la manipulación y procesos de las tablas
de la base de datos mediante el paradigma
de la programación orientada a objetos y los
denominados modelos.
Para el desarrollo del software denominado
“Geria” se utilizó la metodología ágil XP que
se caracteriza por la programación en parejas, y
de fácil acoplamiento a los nuevos y constantes
cambios del cliente.
A. Metodología de desarrollo de software XP
La metodología de software es una manera de
interpretar la Ingeniería de Software destinada
específicamente al desarrollo software. Esta es
considerada como una alternativa que es usada
para planificar y controlar procedimientos de
creación de un aplicativo web o cualquier tipo de
sistema informático.
La técnica principal de recolección de
información necesaria para la obtención de
requerimientos del sistema es la entrevista a la
coordinadora del centro con el objetivo de obtener
información detallada acerca del funcionamiento
del centro, las actividades que realizan, cuantos
adultos mayores poseen, y posteriormente la
fase de recolección de requerimientos para la
implementación posterior en el sistema.
III. Método
8
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Los métodos de investigación identificados para
el desarrollo de la aplicación son el método
inductivo y deductivo.
Se analizaron las encuestas de patrones de auto
percepción funcional realizada por los adultos
mayores, y se concluye el estado de salud bajo
el que se considera a sí mismo un paciente del
centro.
La metodología de desarrollo ágil XP dicta un
total de 4 fases que involucran todo el ciclo
de vida del software, desde la recolección de
requerimientos hasta una serie de pruebas al
sistema para vericar y validar su robustez y
eficiencia. Aplicándose todas ellas en el desarrollo
de la aplicación “Geria. Estas fases se muestran
en la figura 1, y se detallan a continuación:
Fase 1 - Planicación: para el manejo
de tarjetas de historias de usuario con
sus respectivas tareas de ingeniería, se
recogieron 31 requerimientos del sistema. Se
identicaron un total de 8 tareas de ingeniería
en las que se describieron las actividades a
realizar en cada historia de usuario y que
recaían dentro del trabajo del equipo de
desarrolladores, se describió el listado de
requerimientos junto con la coordinación
del centro geriátrico, y se realizó el
respectivo cálculo de puntos de esfuerzo.
Como conclusión, se obtuvo un total de 7
iteraciones que agregan funcionalidades al
sistema, y 31 requerimientos funcionales
a partir de las historias de usuarios, y 18
funcionalidades con alta prioridad, 4 con
prioridad media y 9 con baja prioridad.
Fig. 1. Fases de la metodología de desarrollo con sus respectivas
prácticas.
Fig. 2. Arquitectura del Sistema en modelo Vista Plantilla.
Fase 2 - Diseño: en esta fase se llevo a cabo la
identicación de la arquitectura del sistema, la
interfaz de usuario, el estándar de codicación,
la construcción de la respectiva base de datos
y los UML del sistema. La arquitectura de la
aplicación permite mostrar la interacción entre
los componentes del sistema a desarrollar,
tanto hardware y software, teniendo en cuenta
la tecnología con la que dispone el lugar en el
que será implementado el sistema.
Debido a que se está trabajando con un
Framework de desarrollo web en particular,
se deben optar por los principios propios tanto
del lenguaje de programación base como del
entorno de trabajo en sí, por lo que se maneja
el Patn de Diseño MTV o Modelo de Vista
Plantilla. El cual es un fiel equivalente al
clásico patrón de arquitectura de Software
MVC (Modelo Vista Controlador), como se
muestra en la figura 2.
En esta fase se construyó el modelo de la base
de datos que para este caso fueron 19 tablas
previamente normalizadas con el fin de evitar
la redundancia de datos y que fueron generadas
por defecto como parte de la administración
del Framework.
Fase 3 - Codificación: la programación fue
realizada por 2 programadores encargándose
de la iteración correspondiente, y del análisis
del método que se está implementando para
satisfacer el requerimiento. Se utilizo el
software de planificación de proyectos Soho
Project con el propósito de tener actualizado
el repositorio de documentación del proyecto.
Para el desarrollo del proyecto se optó por el
9
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
estándar de nomenclatura UpperCamelCase,
el mismo que especifica: la primera letra
tanto de clases, atributos, y métodos debe
ir con Mayúsculas, y que los nombres de
las variables la primera letra puede ir con
miscula, sin espacios y primera letra
mayúscula de cada palabra posterior para
ambos casos.
Fase 4 - Pruebas: Se consideran como pruebas
de aceptación a aquellos procesos de testeo
o evaluación para verificar la robustez de
la aplicación y tolerancia a errores, frente a
entradas creadas por el usuario. El propósito
de la creación de esta sección es simular la
mayor cantidad de escenarios posibles sin
el detenimiento parcial o total del sistema.
Se identificaron un total de 15 pruebas de
aceptación, de las cuales 3 se consideran
con un impacto de ejecución alto dentro del
proyecto, 10 con un impacto de ejecución
medio y 2 con un impacto de ejecución bajo.
Para afirmar que una prueba de aceptación
tiene un impacto alto dentro del proyecto, se
establece que su ejecución es crucial en todo
momento y en caso de que falle, implicaría el
colapso del sistema.
Una prueba de aceptación con un impacto
medio significa que su fallo implicaría la
emisión de información incorrecta en cuanto
a los reportes de patrones de auto percepción
funcional, actividades diarias y lúdicas
del adulto mayor. Mientras que el fallo de
las pruebas de aceptación con un impacto
bajo implicaría nuevamente el ingreso de
cierta información de partida previo al
funcionamiento del sistema.
Resultados de ejecución
Pruebas de aceptación de alto impacto: 3
Ejecutadas. 3 aprobadas
Pruebas de aceptación de medio impacto: 10
Ejecutadas. 10 aprobadas
Pruebas de aceptación de bajo impacto: 2
Ejecutadas. 2 fallidas
Tras la ejecución de las 15 pruebas de aceptación
se establece que únicamente existieron 2 fallos
correspondientes a pruebas con un impacto
bajo. Por lo que se concluye que, pese a que no
se obtuvieron los resultados esperados de todas
las pruebas de aceptación, dichos resultados
no implican fallos en la ejecución adecuada del
aplicativo ni compromete la información arrojada
por el sistema.
B. Identificación de los atributos de calidad
de datos en el software “Geria
Para el Software de Asistencia Al Adulto Mayor
"Geria, en base a la norma ISO de calidad de
los datos ISO/IEC 25012, se consideraron 2
características de calidad de datos inherentes
y dependientes del sistema, la eficiencia y la
portabilidad [22].
Portabilidad: Se define a la portabilidad como
el grado en el que los datos tienen atributos que
les permiten ser instalados, reemplazados o
eliminados de un sistema a otro.
Eficiencia: Se define a la eficiencia como el grado
en el que los datos tienen atributos que pueden ser
procesados y proporcionados con los niveles de
rendimiento esperados [22].
1. Aseguramiento de la portabilidad
Para el aseguramiento de la portabilidad se analizó
y aplicó dicho principio en un escenario práctico
de implementación del aplicativo bajo dos sistemas
gestores de bases de datos distintos. Para el caso
práctico se procedieron a seleccionar los sistemas
gestores de base de datos SQLite y PostgreSQL,
una de las características coincidentes de ambos
es que son de código abierto.
2. Aseguramiento de la eficiencia
Para el aseguramiento de la eficiencia se procedió
con el análisis cuantitativo del rendimiento
del aplicativo mediante el empleo de métodos
matemáticos y estadísticos. En razón de que
mediante un análisis estadístico se puede plantear
una hipótesis basada en la comparación de una
serie de datos.
Para el software de asistencia integral al adulto
mayor “Geria, el análisis estadístico planteado
10
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
VI. Resultados
Uno de los objetivos que persigue la calidad del
software es garantizar que el producto terminado
cumpla con los modelos establecidos y logre la
mayor satisfacción posible en el cliente que utiliza el
sistema [22]. Por este motivo se procedió a realizar
la evaluación del sistema en cuanto a sus atributos de
calidad seleccionados. El análisis y aseguramiento
de la eficiencia se lleva a cabo mediante un estudio
estadístico de distribución normal mientras que la
portabilidad se evidencia gracias a la propiedad del
Framework Django de crear las tablas de la base de
datos mediante clases y objetos, haciendo posible
su implementación tanto en el sistema gestor de
bases de datos SQLite como en PostgreSQL.
A. Eficiencia
Se dene a la eficiencia como el grado en el que los
datos tienen atributos que pueden ser procesados
y proporcionados con los niveles de rendimiento
esperados.
Con el propósito de evaluar el rendimiento del
sistema se procedió a preparar un escenario en
el que, por una parte, se ejecutan los módulos
correspondientes a reportes con ayuda del
Framework, y por otra parte la ejecución de los
mismos módulos de reportes, pero esta vez sin
ningún Framework de por medio.
Para la evaluación del rendimiento se procedió
a realizar el análisis estadístico T de Student del
escenario planteado mediante el análisis de los
procesos de ejecución de los módulos de reportes
de: actividades diarias, patrones funcionales, y
actividades lúdicas para verificar si el uso del
Framework Django toma menos tiempo que
ejecutar el mismo módulo sin ningún Framework
de por medio. Y posteriormente en base al análisis
de los resultados arrojados por el test, proceder a
aceptar o desechar dicha hipótesis.
Tomaremos como ejemplo el trabajo realizado para
el análisis del módulo correspondiente a reportes
de las actividades diarias con y sin el Framework.
Una vez identificado el tiempo en segundos que
se requiere tanto para la ejecución del módulo
correspondiente a reportes de las actividades diarias
con y sin el Framework, se procede a realizar el
cálculo de la distribución T de Student test, en
primer lugar, se debe identificar si el par de datos
obtenidos se distribuyen o no de manera normal,
para lo cual se hizo referencia al Shapiro-Wilk Test
con los datos obtenidos, para este caso se hizo uso
del software RStudio.
Para el primer análisis de distribución normal,
se procedió a evaluar la variable X=t_registro_
sin_Framework. Esta variable indica el tiempo de
ejecución en segundos del módulo de reportes de
actividades diarias del adulto mayor sin ningún
Framework de por medio.
Previo el análisis de la variable X=t_registro_
sin_Framework, se debe plantear un grado de
significancia del 95%, este valor se lo asigna por
defecto y significa que se busca obtener resultados
con el 95% de confianza.
El software estadístico RStudio denomina al grado
de significancia con la variable p-value, para que
un par de datos se distribuyan de manera normal,
se debe cumplir la condición de (p-value)>= 0.05.
En la figura 3. Se evidencia que efectivamente el
valor de p-value para la variable X=t_registro_sin_
Framework, que indica el tiempo de ejecución en
segundos del módulo de reportes de actividades
diarias sin ningún Framework de por medio, es
mayor a 0.05 (valor obtenido = 0.6719).
Dado que para la variable X=t_registro_sin_
Framework el valor de p-value obtenido es mayor
que 0.05, se afirma que los datos se distribuyen de
manera normal. Por lo que se prosigue a realizar
el análisis de distribución normal para la variable
Y=t_registro_con_Framework
En la figura 4 se obtienen los resultados del test de
distribución normal para la variable Y=t_registro_
se orientó a la hipótesis de que una actividad en
específico se puede realizar en menor tiempo
que otra, para lo cual se hizo uso de un escenario
de evaluación del rendimiento del aplicativo en
segundos.
11
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
con_Framework, que indica el tiempo de ejecución
en segundos del módulo de reportes de actividades
diarias con Django.
Como se puede observar, tras el análisis de la
variable se obtiene el valor de p-value, mismo que
es mayor a 0.05 (valor obtenido = 0.284).
En la Tabla II se evidencia los resultados del test
de Shapiro Wilk para las dos variables analizadas:
X=t_registro_sin_Framework: Indica el
tiempo de ejecución en segundos del módulo
de reportes de actividades diarias sin ningún
Framework de por medio.
Y=t_registro_Framework: Indica el tiempo
de ejecución en segundos del módulo de
reportes de actividades diarias con Django.
Una vez obtenidos los resultados del test de
distribución normal mediante Shapiro-Wilk y con
ayuda del software estadístico RStudio, se afirma
que ambas variables se distribuyen de manera
normal.
Fig. 3. Arquitectura del Sistema en modelo Vista Plantilla.
Fig. 4. Test Shapiro Wilk para la ejecución del módulo de reportes
con el Framework [20].
Fig. 5. Ejecución del Test T de Student con software RStudio [20].
Dado que se cumple la condición del nivel de
significancia, se considera que ambas variables
se distribuyen de manera normal, por ende, están
relacionadas entre sí, permitiendo proceder con el
test de medias para dos muestras independientes,
o T de Student.
Para la ejecución del test se hizo uso del Software
RStudio, como se indica en la figura 5.
Una vez ejecutado el test T de Student, se obtienen
los resultados descritos en la tabla III-IV, Se dice
que si el nuevo valor del nivel de significancia
p-value tiende a 0 (valor obtenido=2.2E-16), se
procede a aceptar la hipótesis.
Tabla II
RESULTADOS PARA LA TOMA DE DECISIONES
Tiempo de ejecución del módu-
lo de reportes de las actividades
diarias del adulto mayor del
centro sin Django
Tiempo de ejecución del
módulo de reportes de
las actividades diarias
del adulto mayor del
centro con Django
Registro
p-value = 0.6719
p-value >= 𝛼
0.6719 >= 0.05
p-value = 0.284
p-value >= 𝛼
0.284 >= 0.05
Tabla III
RESULTADOS DEL TEST T DE STUDENT PARA LOS REPORTES
DE LAS ACTIVIDADES DIARIAS DEL ADULTO MAYOR.
Prueba T de medias para dos muestras independientes
Nivel de Significancia 2.2E-16
Nivel de Confianza 95%
12
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Únicamente con un valor de significancia que
tienda a 0 permitirá la aceptación de la hipótesis
(evidencias estadísticamente significativas), Se
obtiene un valor de significancia de 2.2E-16, por
lo que se procede a aceptar la hipótesis de que
el tiempo de ejecución del módulo de reportes
de actividades diarias mediante el Framework es
menor que su ejecución sin ningún Framework
de por medio.
B. Portabilidad
Con el propósito de verificar el grado en que los
datos pueden ser instalados, reemplazados o
eliminados de un sistema a otro, cumpliendo así
el atributo de portabilidad, Se procedió con la
implementación de un escenario que consiste en
la configuración del modelo Persona, espacio en el
que se define las características de los atributos de la
tabla Persona y el tipo de datos que van a manejar,
para posteriormente implementar dicho modelo en
dos de los sistemas gestores de bases de datos que
soporta el Framework, SQLite y PostgreSQL.
Como resultado del proceso se obtuvo la figura
6 correspondiente al archivo de models.py del
modelo Persona con sus respectivos atributos y
tipos de datos.
C. Implementación en SQLite
En la figura 7 se puede evidenciar la base de datos
diseñada acorde al modelo de Persona definido en
la figura 6 implementado en el sistema gestor de
bases de datos SQLITE.
En la figura 8 se indica la ejecución adecuada del
aplicativo bajo el sistema gestor de base de datos
SQLite.
D. Implementación en PostgreSQL
Como se puede evidenciar en la figura 9
correspondiente al sistema gestor de bases de
datos PostgreSQL, los atributos y tipos de datos
del archivo son acordes al archivo de models.py
de la figura 6.
Tabla IV
RESULTADOS DEL TEST T DE STUDENT PARA LOS REPORTES
DE LAS ACTIVIDADES DIARIAS DEL ADULTO MAYOR
N veces X=t_registro
_Framework
Y=t_registro
_sin_Framework
Unidad
de tiempo
1 0,001001 0,023 Segundos
2 0,001 0,019 Segundos
Fig. 6. Archivo models.py con el modelo Persona con sus atributos
y tipos de dato.
Fig. 7. Tabla Persona implementada en SQLITE.
Fig. 8. Ejecución del módulo de reportes por año de actividades
diarias del adulto mayor con SQLite.
Fig. 9. Tabla Persona implementada en PostgreSQL.
13
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
En la figura 10 se indica la ejecución adecuada del
aplicativo con el sistema gestor de base de datos
PostgreSQL.
Como conclusión del escenario se establece que
debido a la característica de Object Relational
Mapper (ORM) que maneja el Framework Django,
principio que se ve implementado en el archivo de
models.py del proyecto, y gracias a la configuración
de los datos orientados hacia la creación de clases
y objetos se puede migrar adecuadamente tanto
a PostgreSQL como a SQLite, evidenciando la
portabilidad de los datos según la normativa de
calidad de software ISO 25012
Fig. 10. Ejecución del módulo de reportes por año de actividades
diarias del centro con PostgreSQL.
V. Conclusiones
Las actividades diarias del adulto mayor que se
realizan el Centro de Atención Integral al Adulto
Mayor CAIAM, son en base a la Normativa General
del Adulto Mayor propuesta por el Ministerio de
Inclusión Económica y Social, la cual dicta un
total de 10 actividades que son: comer, trasladarse
entre la cama y la silla, aseo personal, uso del
retrete, bañarse o ducharse, desplazarse, subir y
bajar escaleras, vestirse o desvestirse, control de
heces, control de orina. En cuanto a los patrones
de auto percepción funcional de Marjory Gordon
dictan una serie de parámetros para recolección
de información acerca de la percepción de la salud
de las personas, para el caso de personas de la
tercera edad, es en base a la normativa General
del Adulto Mayor del MIES, la cual regula a todos
los geriátricos se han considerado los patrones:
percepción - manejo de la , nutricional - metabólico,
eliminación, ejercicio, sueño – descanso, cognitivo
– perceptual, autopercepción - auto concepto, rol –
relaciones, sexualidad – reproducción, adaptación
- tolerancia al estrés , valores – creencias. La
aplicación web considera para la implementación
del módulo de actividades lúdicas del adulto mayor,
referente a actividades para la memoria, atención,
lenguaje y autoestima, se consideraron un total de 9
dinámicas acordes a las tecnologías implementadas,
entre las cuales están consideradas: ejercicios para
la memoria, ejercicios para la memoria visual,
completar la frase, adivina que es, actividad del
veo veo, descripción de recorridos, quien es quien,
formar palabras y recordar Imágenes.
Según la normativa ISO para la gestión de calidad,
en su enfoque orientado al desarrollo de software,
plantea que la norma de calidad ISO IEC 25012 se
utiliza para el análisis de la calidad de los datos,
siendo que existe la calidad de datos inherente y
la dependiente del sistema. Para el Software de
Asistencia al Adulto Mayor “Geria, se consideraron
los atributos de eficiencia y portabilidad, logrando
demostrarse el cumplimiento de ambos criterios
dentro del proyecto.
Los resultados del análisis estadístico en cuanto a
la ejecución del módulo de reportes de actividades
diarias mediante el Framework arrojan un valor
de significancia de 2.2E-16 (tendiendo a 0), en
el análisis estadístico realizado orientado a la
ejecución del módulo de reportes de patrones
funcionales mediante el Framework arrojan un
valor de significancia de 0.0006 (tendiendo a 0) y
en el análisis estadístico orientado a la ejecución del
módulo de reportes de actividades lúdicas mediante
el Framework arroja un valor de significancia de
0.05 (tendiendo a 0) por ende, se determina que
la hipótesis: La ejecución del módulo de reportes
de actividades diarias, del módulo de reportes
de patrones funcionales y módulo de reportes de
actividades lúdicas respectivamente mediante el
Framework permitirá efectuar el proceso de forma
más eficiente que sin ningún Framework de por
medio, se cumple de manera efectiva.
En cuanto a los procedimientos del análisis
estadístico, el cual verificaba si la ejecución del
proceso era más eficiente mediante el uso de un
Framework de desarrollo web, se recomienda para
futuros estudios desechar los valores atípicos, es
14
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
decir, valores muy alejados de la media, con el fin
de obtener un análisis estadístico más preciso, o
bien reemplazar dichos valores atípicos por el valor
de la media en sí.
VI. Agradecimientos
A la Escuela Superior Politécnica de Chimborazo,
y al Centro de Atención Integral al Adulto Mayor
de la ciudad de Guano por prestar las condiciones
adecuadas para el desarrollo de esta investigación.
[1] «NORMA-TECNICA-DE-POBLACIÓN-
ADULTA-MAYOR-28-FEB-2014.pdf». Acce-
dido: 8 de abril de 2023. [En línea]. Disponible
en: https://www.inclusion.gob.ec/wp-content/
uploads/downloads/2014/03/NORMA-TECNI-
CA-DE-POBLACIO%CC%81N-ADUL-
TA-MAYOR-28-FEB-2014.pdf
[2] «Evaluación de los Frameworks en el Desarrollo
de Aplicaciones Web con Python | Revista Lati-
noamericana de Ingenieria de Software». http://
revistas.unla.edu.ar/software/article/view/1149
(accedido 8 de abril de 2023).
[3] L. Sopeña, «Valoración integral en el ancia-
no según los patrones funcionales de Marjory
Gordon - Revista Electrónica de PortalesMed-
icos.com», 13 de mayo de 2020. https://www.
revista-portalesmedicos.com/revista-med-
ica/valoracion-integral-en-el-anciano-se-
gun-los-patrones-funcionales-de-marjory-gor-
don/ (accedido 28 de abril de 2023).
[4] Peralta,Marleny, «Calidad de datos en siste-
mas de gestión académica universitaria basa-
dos en ISO/IEC 25012», p. 24, oct. 2021, doi:
10.26439.
[5] Hidalgo, Blanca, Guaiña, Jonny, Ramos, Vini-
cio, Yumiseba, Piedad, y Gutiérrez, Christian,
«Application of the DSDM methodology and
the Django framework for the patient registra-
tion system of the Alfonso Villagómez pediatric
hospital emergency service | KnE Engineering»,
8 de junio de 2020. https://knepublishing.com/
index.php/KnE-Engineering/article/view/5921
(accedido 8 de abril de 2023).
[6] Simmonds, Nicolás, Análisis de frameworks
para desarrollo de aplicaciones móviles y web,
VII. Referencias
vol. 1, 1 vols. Uniandes, 2019.
[7] Nolasco, Jorge, Python Aplicaciones prácticas.
RAMA, 2018.
[8] «Design philosophies | Django documenta-
tion | Django». https://docs.djangoproject.com/
en/4.2/misc/design-philosophies/ (accedido 8
de abril de 2023).
[9] Bach, John, Django Una guía completa para de-
sarrollar sitios web con Django. Amazon Digital
Services LLC - KDP Print US, 2021.
[10] Hernandez, Rafael, «El patrón modelo-vis-
ta-controlador: Arquitectura y frameworks
explicados», 28 de junio de 2021. https://
www.freecodecamp.org/espanol/news/el-mod-
elo-de-arquitectura-view-controller-pattern/
(accedido 28 de abril de 2023).
[11] «LEY ORGÁNICA DE LAS PERSONAS
ADULTAS MAYORES». 29 de abril de 2019.
Accedido: 29 de junio de 2023. [En línea]. Di-
sponible en: https://www.gob.ec/sites/default/
files/regulations/2019-06/Documento_%20
LEY%20ORGANICA%20DE%20LAS%20
PERSONAS%20ADULTAS%20MAYORES.
pdf
[12] M. Trigás, Ferrín, L. González,Ferreira, y H.
Míguez, Meijide, «Escalas de valoración fun-
cional en el anciano», Galicia Clínica, mar.
2011.
[13] «ISO 2500». [En línea]. Disponible en: https://
iso25000.com/index.php/normas-iso-25000/
iso-25012
[14] J. Calabrese, S. Esponda, A. Pasini, M. Borac-
chia, y P. Pesado, «Guía para evaluar calidad de
datos basada en ISO/IEC 25012», 2019.
[15] Castillero Oscar, «Índice de Katz: un test que
evalúa las actividades diarias», 26 de septiem-
bre de 2019. https://psicologiaymente.com/clin-
ica/indice-katz (accedido 8 de abril de 2023).
[16] Puntareli, Bianca, «Promoción de la salud men-
tal con comunidades que conviven en entornos
de vulnerabilidad socioeconómica», Common
Ground Res. Netw., vol. 8, n.o 1, p. 13, jun.
2022, doi: https://doi.org/10.18848/2474-5219/
CGP/v08i01/33-45.
[17] Rivera, Fredy y Luna, Santiago, «Tecnologías
emergentes aplicadas en la educación», Com-
mon Ground Res. Netw., vol. 7, n.o 1, p. 9, ene.
2019, doi: https://doi.org/10.18848/2474-588X/
CGP/v07i01/15-23.
15
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
[18] «Patrones Funcionales-Modelo de Marjory
Gordon». https://enfermeriaactual.com/pa-
trones-funcionales/ (accedido 8 de abril de
2023).
[19] Layedra, Natalia, Aguirre, Lorena, Hidalgo,
Blanca, Gavilánez, Wilma, y Sandoval, Mónica,
«Estrategia de enseñanza a docentes en el tópico
“Requerimientos de Software” a través del juego
“Island Requirement”», Common Ground Res.
Netw., vol. 8, n.o 1, p. 14, feb. 2020, doi: http://
doi.org/10.18848/2474-588X/CGP/v08i01/37-
50.
[20] «10 Juegos de entretenimiento para Adultos
mayores - Montesalud». https://montesalud.
com/10-juegos-de-entretenimiento-para-adul-
tos-mayores/ (accedido 8 de abril de 2023).
[21] «Envejecimiento saludable - OPS/OMS | Orga-
nización Panamericana de la Salud», Organi-
zación Panamericana de la Salud, 8 de abril de
2023. https://www.paho.org/es/envejecimien-
to-saludable (accedido 8 de abril de 2023).
[22] Arciniegas, Fernando, «Normas y Estándares
de calidad para el desarrollo de Software»,
Software testing, 1 de febrero de 2008. http://
fcaenlinea.unam.mx/anexos/1728/Unidad_2/
u2_act2_1.pdf (accedido 8 de abril de 2023).
[23] Jiménez, Jorge y Tasna, Cecilio, «Desarrollo de
una aplicación web para el registro y evaluación
de las actividades diarias del adulto mayor del
centro gerontológico CAIAM», Escuela Supe-
rior Politécnica de Chimborazo, Riobamba-Ec-
uador, 2021. Accedido: 2 de mayo de 2023. [En
línea]. Disponible en: https://www.google.com/
url?sa=t&rct=j&q=&esrc=s&source=web&c-
d=&cad=rja&uact=8&ved=2ahUKEwirgY-
jcv9f-AhUaRTABHdc9BCMQFnoECAgQA-
Q&url=http%3A%2F%2Frepositorio.ug.edu.
ec%2Fhandle%2Fredug%2F48925&usg=AOv-
Vaw2Y9woIswSIbz5pDx1MCabh
16
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
TRANSMISIÓN DE MENSAJES EN CÓDIGO ASCII
UTILIZANDO UN PROTOTIPO DE COMUNICACIÓN
LÁSER SUBMARINA DE ALTA POTENCIA (50mW) EN
DOS ESCENARIOS CONTROLADOS
Facultad de Informática y Electrónica, Escuela Superior Politécnica de Chimborazo Riobamba, Ecuador.
Lessly Borja
Anthony Gualli
lessly.borja@espoch.edu.ec
anthony.gualli@espoch.edu.ec
jefferson.ribadeneira@espoch.edu.ec
Kelly Baño
Jefferson Ribadeneira
kelly.banio@espoch.edu.ec
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
RESUMEN
El presente artículo ofrece el desarrollo de un
prototipo de comunicación subacuática mediante
un láser de largo alcance (50mW) con la finalidad
de hallar el alcance máximo del prototipo bajo el
agua y el valor de la atenuación o potencia de la
señal recibida conforme aumenta la distancia. Para
lo cual, se escogieron dos escenarios acuáticos de
pruebas. En el primer escenario (una pecera) se
realizaron dos mediciones de potencia de la señal
recibida utilizando el Osciloscopio KEYSIGHT
Infinii Vision DSOX2022A y de la misma manera,
en el segundo escenario (una piscina) también se
realizaron dos mediciones. Con los datos obtenidos
se realizó el análisis gráfico del comportamiento
de la potencia de señal recibida. Finalmente se
concluye que el alcance máximo del prototipo
bajo el agua es de 12m (para distancias mayores
a 12m el láser no llega al receptor), se pierde o
distorsiona información si existe movimiento
del agua debido a que las partículas del agua en
movimiento reflejan mucho más el láser y que para
que funcione el prototipo tanto el transmisor como
el receptor deben estar perfectamente alineados
caso contrario la comunicación subacuática no se
establecerá.
Palabras Clave: Prototipo, Subacuático,
Comunicación, Potencia, Voltaje, Distancia.
Transmission of ASCII code messages using a high power
(50mW) underwater laser communication prototype in two
controlled scenarios
ABSTRACT
This article offers the development of an
underwater communication prototype using a
long-range laser (50mW) to find the maximum
range of the prototype underwater and the value
of the attenuation or power of the received signal
as the distance increases. For this purpose, two
underwater test scenarios were chosen. In the first
scenario (a fish tank) two received signal power
measurements were made using the KEYSIGHT
Infinii Vision DSOX2022A oscilloscope and
in the second scenario (a swimming pool) two
measurements were also made. With the data
obtained, a graphical analysis of the behaviour of
the received signal power was performed. Finally,
it is concluded that the maximum range of the
prototype underwater is 12m (for distances greater
than 12m the laser does not reach the receiver),
information is lost or distorted if there is water
movement because the particles of the moving
water reflect the laser much more and that for the
prototype to work both the transmitter and the
receiver must be perfectly aligned otherwise the
underwater communication will not be established.
Keywords: Prototype, Underwater,
Communication, Power, Voltage, Distance.
Fecha de Recepción: 10/08/2023. Fecha de Aceptación: 20/06/2024. Fecha de Publicación: 20/01/2025
DOI: https://doi.org/10.47187/perspectivas.7.1.207
17
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Las comunicaciones por láser están revolucionando
la forma de enviar y recibir información hacia
y desde el espacio. En el caso de la tecnología
Wi-Fi se llevó a cabo la transmisión de datos a
alta velocidad mediante un láser semiconductor
(de frecuencia infrarroja), desarrollado por
investigadores de la Escuela de Ingeniería y
Ciencias Aplicadas (EAS) de Harvard. Los cuales
diseñaron una antena especial que permite recibir
y descifrar los datos que llegan vía láser. Otro
ejemplo de comunicación láser es la LCRD (Laser
Communications Relay Demonstration) de la
NASA, que enviara información a puntos alejados
en el espacio, permitiendo que se transmitan de 10
a 100 veces más datos a la Tierra que los sistemas
de radiofrecuencia actuales [1] [2].
Con respecto, a la comunicación subacuática existen
tres métodos los cuales son: por radio (las antenas
de los submarinos salen a la superficie del agua
para lanzar una sen˜ al de radio lo suficientemente
fuerte para enviar el mensaje deseado), por acústica
(por medio de un sonar y una banda ancha, se
puede detectar objetos a grandes distancias y así
enviar información al submarino) y por luz (es un
método empleado por los buzos y barcos, los cuales
usan una serie de señales para comunicarse entre
sí). Pero ninguno de los tres métodos permite la
transmisión de datos a altas velocidades [3] [8].
La tecnología LiFi desarrollada por más de 100 años
es la posible solución de los problemas de ancho de
banda de las ondas de radio del Wifi y el futuro
de las comunicaciones inalámbricas. Esta transfiere
datos en haces de luz visible, es decir, a frecuencias
de entre 400 y 800 THz (espectro visible de los
humanos). Estas velocidades de transmisión pueden
superar los 100 Gbps. Para su funcionamiento se
necesita un modulador en la parte transmisora que
apagará y encenderá la fuente de luz LED (de forma
imperceptible para los humanos), generando así los
ceros y unos binarios, y un fotodiodo en la parte
de recepción que demodula la señal de frecuencia
de luz y la convierte de nuevo en un flujo de datos
electrónicos, permitiendo una comunicación
inalámbrica bidireccional, más rápida y segura [4]
[5].
I. Introducción En el año 2020 un equipo de investigadores de
las universidades de Waterloo (Canadá) y la
Universidad de Ciencia y Tecnología (Arabia
Saudí) creó un nuevo sistema experimental
basado en tecnología láser que permitirá enviar
información a través del agua de forma más
rápida. El prototipo de AquaFi se llevó a cabo en
aguas tranquilas y con el receptor y transmisor
alineados, su principio de funcionamiento es
el envío de fotos o videos desde el smartphone
(con carcasa aislante) de un buceador de forma
inalámbrica (en forma de ondas de radio ) a la
Raspberry Pi (a menos de un metro de distancia)
montada en su tanque la cual descompone la
información en pulsos de luz ultrarrápidos (0 o 1) y
los emite al receptor del barco, mediante luz LED
(distancias de menos de 10 m de profundidad)o
laser de 520 nanómetros (distancias de más de 20
m de profundidad). Según Basem Shihada, autor
principal de la investigación afirmo que se pudo
usar el sistema Aqua-Fi para cargar y descargar
contenido multimedia entre dos ordenadores
ubicados a pocos metros de distancia, en aguas
tranquilas. Obteniendo una velocidad máxima
de transferencia de 2.11 Mbps y una latencia de 1
milisegundo [6].
Los próximos experimentos para que Aqua-Fi se
convierta en una tecnología útil en el mundo real
tendrán que realizarse en aguas abiertas, mucho
más turbulentas y cargadas de partículas en
suspensión. Una de las opciones que barajan los
investigadores es trabajar con receptores esféricos
que capten el haz de luz desde distintos ángulos
[7].
Con estos antecedentes, en el presente artículo se
realizó un prototipo de comunicación subacuática
(circuitos de transmisor y receptor) mediante un
láser de alta potencia (50mW) cuyo alcance máximo
bajo el agua es de 12 metros de profundidad, con
la finalidad de medir el comportamiento de la
potencia de sen˜ al recibida en cuatro distancias (a
los 0.4m, 0.75m, 3.6m y a los 12m) de las cuales,
las dos primeras se realizaron dentro de una pecera
(agua con aproximadamente 115 gramos de sal) y
las dos últimas dentro de una piscina (agua con 8
lb de dicloro).
18
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Fig. 1. Diagrama de flujo del análisis comparativo.
Fig. 2. Circuito conmutador del transmisor en Proteus
Fig. 3. Recubrimiento del láser.
II. Metodología
Para llevar a cabo con éxito el prototipo de
comunicación subacuática y sacar su atenuación de
potencia recibida conforme aumenta la distancia,
se diseñó un diagrama de flujo Fig. 1 en el cual
se detalla de manera lógica y ordenada todos los
pasos a seguir.
Inicialmente se realizó la programación tanto
para el microcontrolador ESP32 utilizado en el
transmisor como para el Arduino Nano V3.0 USB
Tipo C con Atmega328 utilizado en el receptor.
Para el primero se empleó código ASCII para
representar cada letra del abecedario en binario y
en combinaciones de 5 bits, también se cambió el
tiempo de reloj en la programación de Arduino que
por defecto es un segundo para que el tiempo de
llegada de los datos al receptor sea de 100 ms, es
decir, se aumentó la velocidad de transmisión de
datos. Mientras que, para el segundo se programó
que lea 5 pulsos o a su vez un determinado tiempo
para poder comparar cual es la letra, cuyo proceso
se simplico´ con una función Serial (si detecta
información ejecuta de lo contrario no ejecuta)
y con la función carácter para descomponer los
datos carácter por carácter.
Una vez programado se implementó los circuitos
necesarios en el software Proteus tanto para el
transmisor como para el receptor.
La Fig. 2 muestra el circuito conmutador del
transmisor que envía datos con ceros (encendido)
y unos (apagado), donde para activar el láser se
utilizó como interruptor un MOSFET (IRFZ44)
conectando al polo negativo del láser y el polo
positivo del láser conectado directamente a los
3.3V de entrada, este MOSFET recibe 3,3V de su
conexión al puerto 7 del microcontrolador ESP32,
el cual, a su vez recibe un voltaje de entrada de
5V ya sea por USB o por batería de litio (con un
elevador de voltaje XL6009). Además, que en los
puertos 31, 30 y 29 se colocó leds indicadores de
envió de datos, mientras que en los puertos 36
y 33 se colocó la pantalla LCD para visualizar
los datos enviados. puertos 36 y 33 se colocó la
pantalla LCD para visualizar los datos enviados.
19
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
En la Fig. 7 se observa el funcionamiento del
prototipo de comunicación subacuática mediante
laser. Para lo cual se llenó una pecera de agua,
sumergiendo el circuito transmisor y receptor en
cajas de vidrio (20cm x 20cm, grosor de 6 líneas
y 15cm de altura para el transmisor y 75cm para
el receptor) respectivamente hasta el punto que
los circuitos estén cubiertos por el agua, para
posteriormente enviar los mensajes desde el celular
a través de la aplicación Serial Bluetooth Terminal
que llegan por Bluetooth al microcontrolador
ESP32 encargado de mostrar el mensaje en la
pantalla LCD y de enviar el mensaje en pulsos de
luz ultrarrápidos de aproximadamente 100ms (0
al encender el láser y 1 al apagar el láser), estos
pulsos de luz son detectados por el fototransistor
del circuito receptor.
Después de comprobar el funcionamiento
Fig. 7. Prototipo de comunicación submarina por láser
Fig. 4. Circuito receptor en Proteus
Fig. 5. Placa del transmisor
Además, en la Fig. 3 se muestra el recubrimiento
para sumergir bajo el agua el láser, mediante una
matriz Erlenmeyer (probeta química de vidrio)
con una tapa de caucho, por la cual, se sacó los
cables positivos y negativos del láser para conectar
al circuito transmisor.
De la misma manera, en la Fig. 4. se observa el
circuito receptor, donde se utilizó un fototransistor
que capta la señal variable que viaja a través del
láser, para obtener como salidas 0 y 1 se realizó´
un divisor de voltaje mediante un Opam, el
voltaje positivo va al fototransistor y el negativo
a una sen˜ al de referencia, el Opam a su vez
está conectado al puerto 21 del Arduino donde
se programó un voltaje de 0.8V (si el voltaje es
mayor que 0.8 se dispara a 1 y si es menor baja a 0)
para generar la señal cuadrada con una amplitud
de 5V (dado como voltaje de entrada en el puerto
12 por USB o batería de litio) para visualizar este
funcionamiento se conectó un led. Además, en los
puertos 23 y 22 del Arduino se colocó una pantalla
LCD para visualizar los datos de llegada y leds en
los puertos 30, 29 y 28.
Estos circuitos diseñados en el software Proteus
fueron impresos en placa fenólica, baquelita doble
cara de 7x8 cm (receptor) y 6x10 cm (transmisor),
para posteriormente ser implementados como se
puede observar en la Fig. 5 (transmisor) y Fig. 6
(receptor).
Para enviar los datos al transmisor se empleó
la aplicación Serial Bluetooth Terminal, la
cual permite conectarse mediante bluetooth
al microcontrolador ESP y enviar el mensaje
deseado.
Fig. 6. Placa del receptor
20
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
III. Escenarios de estudio
donde, Vp es el voltaje pico en voltios, y Vpp=
voltaje pico a pico en voltios. Para el cálculo de la
potencia de la señal recibida en el fototransistor se
utilizó la ecuación (2),
A. Aguas claras y tranquilas
Las propiedades químicas del agua clara son
generalmente muy similares a las del agua de
lluvia: baja concentración de nutrientes clave y
relativo predominio de sodio [9] [10].
En la Fig. 9 y Fig. 10 se observar el funcionamiento
del prototipo de comunicación subacuática en dos
distancias (0,4m y 0,75m) del primer escenario
(pecera) con agua clara y tranquila (pH de 6,5).
B. Agua de piscina
Para el correcto funcionamiento de la piscina
utilizada se controló y se midió cinco parámetros
esenciales que son:
Cloro: 8 lbs de dicloro (cloro en pastillas)
otorgando un valor de cloro de 1.4 ppm
(partes por millón).
pH: nivel de 7.5, que aún se considera
estable.
Alcalinidad: debido al cloro en pastillas el
rango de alcalinidad es de 87 ppm.
Ácido isocianúrico: 40 ppm de este
estabilizante.
Dureza: aproximadamente 175 ppm.
En la Fig. 11 y Fig. 12 se muestra el funcionamiento
del prototipo hasta un alcance máximo de 12m en
el segundo escenario (piscina controlada). Lo cual
se determinó porque para la distancia de 13m el
láser se perdía en el agua y no llegaba al receptor.
donde, P es la potencia en dBW y R es la resistencia
del fototransistor (100 K).
Fig. 9. Medición de voltaje pico a pico a 0,4m.
V2
V
=
ppp
(1)
P(dBW) = 10 log R
2
Vp
(2)
Fig. 10. Medición de voltaje pico a pico a 0,75m.
Fig. 8. Configuración del Osciloscopio
Debido a que las mediciones son del voltaje pico a
pico se debe calcular el valor de voltaje pico. Para
lo cual se utiliza la ecuación (1),
del prototipo de comunicación subacuática se
realizó las mediciones del voltaje pico a pico a
cuatro distancias diferentes con el Osciloscopio
KEYSIGHT InfiniiVision DSOX2022A como se
puede observar en la Fig. 8.
Fig. 11. Medición de voltaje pico a pico a 3,6m
21
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
IV. Resultados
En esta sección se analiza la potencia recibida
mediante los valores obtenidos de voltaje pico a
pico para las cuatro distancias obtenidas en los dos
escenarios de estudios planteados, dichos valores
se aprecian en la Tabla I.
En el primer escenario de estudio (agua clara y
tranquila) solo se pudo realizar la recepción de
potencia a un alcance máximo de 0,75m debido al
tamaño de la pecera. No hubo mayor inconveniente
en la alineación del rayo láser con el fototransistor,
pero si hubo errores de recepción debido a luz
solar, por lo que se realizó las mediciones en el
laboratorio con luces apagadas y cerradas las
ventanas con cortinas. Debido al tiempo de uso de
los instrumentos del laboratorio solo se obtuvo la
potencia recibida para dos distancias 0,4m y 0,75m
a partir del cálculo del voltaje pico con los valores
medidos de voltajes pico a pico, como se indicó en
la metodología. Dando como resultado valores de
-49,45 dBW y -54,51 dBW respectivamente, donde
ya se puede apreciar un comportamiento lineal entres
las potencias y la relación inversamente proporcional
entres la distancia y la potencia recibida.
Mientras que en el segundo escenario de estudio
(agua de piscina) se pensaba realizar más de cinco
mediciones, sin embargo, solo se optó por realizar
la recepción de potencia a dos distancias debido
a las complicaciones que se presentaron en estas
condiciones, y el tiempo excesivo que llevaba
hacer las pruebas de medición de voltaje pico a
pico de la señal recibida.
La primera medición de voltaje pico a pico de
la señal recibida fue a una distancia de 3,6m
(correspondiente a lo ancho de la piscina) donde ya
se apreció el problema de no tener fijo el rayo láser
apuntando al fototransistor del receptor, porque
al mandar los mensajes se distorsionaban debido
a mala alineación, ades se tuvo que esperar
mucho tiempo para que no afecte el viento a la
piscina y también tratar de estar muy quieto en la
misma. Pese a todo se puedo obtener una potencia
recibida de -63,98 dBW. Después se decidió hacer
la prueba para el largo de la piscina (20 m) donde
ya se no se pudo recuperar el mensaje enviado. Por
lo cual se fue acotando la distancia (de metro en
metro) hasta recibir el mensaje enviado llegando
así a una distancia máxima de 12m, donde se
obtuvo una potencia recibida de -82,58 dBW.
Al comparar los resultados de potencia recibida
en el primer escenario y segundo escenario de
estudio se pudo comprobar que las potencia tenían
un comportamiento lineal y que conforme se
aumentaba la distancia la potencia iba reduciendo.
En la Fig. 13 se muestra la gráca de la potencia
de la señal recibida con respecto a la distancia de
medición, donde se observa un comportamiento
lineal para las potencias entre los rangos de 3.6
m, 12 m, 0.4 m y 0.75 m cuyos valores son de
-49,45 dBW, -54,51 dBW, -63,98 dBW y -82,58
dBW respectivamente. Además, que para todos
los resultados la potencia disminuye conforme la
distancia aumenta.
Fig. 12. Medición de voltaje pico a pico a 12m.
Tabla I
POTENCIA RECIBIDA A DIFERENTES DISTANCIAS
BAJO EL AGUA
Distancia (m) Vpp (V) Vp (V) Resistencia
(ohm) Potencia
(dBW)
0,4
0,75
3,6
12
2,13
1,19
0,4
0,047
1,065
0,595
0,2
0,0235
1k
1k
1k
1k
-49,45
-54,51
-63,98
-82,58
Fig. 13. Potencia de la señal recibida por trayecto en los dos
escenarios de estudio (aguas clara y tranquila y agua de piscina)
22
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
V. Conclusiones
En el presente trabajo se puedo desarrollar
un prototipo de comunicación subacuática
basándose en los estudios realizados de Aqua-
Fi, que representa un avance emocionante en la
conectividad submarina. Al analizar los valores
de potencia de la señal recibida, medidos en dos
escenarios de estudios (agua tranquila y clara
y agua de piscina), se concluyó que el láser se
va atenuando a mayor distancia debido a que
el número de partículas del agua que causan
reflexión del láser también aumenta. Existe
distorsión y perdida de datos cuando no se
alinean perfectamente el transmisor y receptor y
cuando se mueve el agua. Es decir, el prototipo
funciona de manera efectiva en aguas tranquilas.
Se determino el alcance máximo de 12m del
prototipo bajo el agua, porque se realizó pruebas
para distancias mayores hasta 20m (alcance
máximo de Aqua-Fi) en donde ya el láser se
dispersaba y no llegaba al receptor. Para el
circuito receptor se concluyó que no puede recibir
rayos infrarrojos del sol, ya que estos interfieren
en la lectura de los sensores.
Debido a que el fototransistor es sensible a la
luz infrarroja se debe realizar la comunicación
subacuática en un cuarto sin luz solar (pecera)
y en la noche (piscina). Para tener una mayor
precisión en los resultados se debería realizar un
mayor número de mediciones de potencia recibida,
pero el objetivo de este prototipo de demostrar la
comunicación subacuática mediante rayos láser si
se cumplió y de aquí en adelante se espera que el
este trabajo de investigación sea usado como base
para próximos trabajos que quieran ir más allá
y mejorar los inconvenientes mencionados para
llegar a ser una tecnología útil.
También se comparó el resultado de alcance
máximo con el obtenido en la prueba de Aqua-Fi
[11]. Donde se apreció que al usar un fototransistor
el alcance fue de 12m mientras que al usar una
Raspberry Pi Computer. fue de 20m, y que existe
un sinnúmero de obstáculos por superar para que
la comunicación por láser sea una tecnología
vigente en este mundo actual de comunicaciones a
larga distancias [12] [13].
[1] José A. Carmonia, “Transmisión de datos a
alta velocidad: este descubrimiento aprovecha
el láser para mejorar el envío de datos”,
Xataka Smart Home, April, 2019.
[Online]. Available: https://www.xatakahome.
com/curiosidades/transmision-datos-a-alta
velocidad-este-descubrimiento-aprovecha-
laser-para-mejorar-envio- datos
[2] Katherine Schauer, “Laser Communications:
Empowering More Data Than Ever Before”,
NASAs Goddard Space Flight Center,
Greenbelt, Md., May 1 7 ,
2021. [Online]. Avaible: https://www.nasa.
gov/feature/goddard/2021/laser-communications-
empowering-more-data-than-ever-before.
[3] STAFF INFOGRAFIA, Aqua-Fi, el primer
Wi-Fi mediante LED y láser para navegar
bajo el agua”, La Razón de México Magazine,
December, 2020. [Online]. Avaible: https://
www.razon.com.mx/tecnologia/aqua-fi- primer-
wi-fi-mediante-led-laser-navegar-agua-418051.
[4] Unknown, “Everything You Need To Know
About LiFi”, Lifi.co, 2022. [Online]. Avaible:
https://lifi.co/es/que-es-lifi/#: : text=LiFi%20
es%20una%20tecnolog%C3%ADa%20
de,de%20radio% 20para%20transmitir%20
informaci%C3%B3n.
[5] Paco Rogriguez, “Tecnología Li-Fi: Que es y
cómo puede revolucionar las comunicaciones
viles”, Xataka Móvil, February 05, 2015.
[Online]. Avaible: https://www.xatakamovil.
com/futuro/tecnologia-li-fi- que-es- y-como-
puede-revolucionar-las-comunicaciones-
moviles
[6] Pablo G. Bejerano, “Aqua-Fi, la tecnología
que podría llevar el WiFi bajo el agua”, Blog
ThinkBig, 2020. [Online]. Avai-ble: https://
blogthinkbig.com/aqua-fi-la-tecnologia-que-
podria-llevar-el wifi- bajo-el-agua
[7] Pedro P. Oliva, “Aqua-Fi: el nuevo sistema
de comunicación inalámbrica subacuática”,
subaQuatica Magazine, June 17, 2020. [Online].
Avaible: https://www.subaquaticamagazine.
es/aqua-fi-el-nuevo-sistema-de comunicacion-
inalambrica-subacuatica/
[8] Pablo, “¿Aqua-Fi? Una red wifi bajo el agua
para la comunicación submarina”, By Orange,
January 18, 2021. [Online]. Avaible: https://
VII. Referencias
23
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
blog.orange.es/innovacion/wifi-submarina/.
[9] German Escribano, “Aguas tranquilas”,
MUNDOCRITICA, April 15, 2015. [Online].
Avaible: https://mundocritica.com/aguas-
tranquilas1
[10] Unknown, Ríos de aguas claras”, AGUAS
AMAZONICAS, Perú, 2019. [Online]. Avaible:
https://aguasamazonicas.org/aguas/tipos-de-
rios/rios- de-aguas-claras.
[11] Ben Coxworth, “Aqua-Fi could bring Wi-
Fi like tech to the underwater world”, New
Atlas, Telecomunicaiones, Junio 11, 2020.
[Online]. Avaible: https://newatlas.com/
telecommunications/aqua-fi-underwater-wi-fi/
[12] Dennis, A. K. “Raspberry pi computer
architecture essentials”, Packt Publishing Ltd.,
2016.
[13] Amit Malewar, “Aqua-Fi: An underwater WiFi
system”, Tech Explorist, Technology, Junio
14, 2020. [Online]. Avaible: https://www.
techexplorist.com/aqua-fi-underwater-wifi-
system/33051/
24
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
MUSIC PLAYBACK BY PLASMA GENERATION WITH
FIR FILTER IMPLEMENTATION IN MATLAB
Facultad de Informática y Electrónica, Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador.
James Neira
Luis Merino
james.neira@espoch.edu.ec
luisf.merino@espoch.edu.ec
erick.ordoniez@espoch.edu.ec
Carlos Millingalli
Erick Ordoñez
carlos.millingalli@espoch.edu.ec
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
RESUMEN
The Tesla coil was invented by Nikola Tesla
in the late nineteenth century and produces
electrical discharges in the form of high-voltage
arcs, unlike the musical Tesla coil, which focuses
on the generation of musical sounds through
controlled electrical discharges. To create an
audio reproduction device by using a physical
phenomenon, it is necessary to create a device
capable of emitting audio through the modulation
of an electrical discharge launched into the air,
which mainly consists of two coils. This element
is commonly known as Plasma Speaker or
Musical Tesla Coil. It was also considered adding
an audio amplifier so that the sound has greater
intensity, and a virtual bandpass filter designed
in Matlab software to record the behavior of the
musical Tesla coil to the different frequencies of
the musical tones.
Palabras Clave: Music, Plasma, Signal Analysis.
Reproducción de música mediante generación de plasma con
implementación de filtro FIR en matlab
ABSTRACT
La bobina de Tesla fue inventada por Nikola
Tesla a finales del siglo XIX y produce descargas
eléctricas en forma de arcos de alto voltaje, a
diferencia de la bobina de Tesla musical, que
se centra en la generación de sonidos musicales
a través de descargas eléctricas controladas.
Para crear un dispositivo de reproducción de
Fecha de Recepción: 14/08/2023. Fecha de Aceptación: 14/05/2024. Fecha de Publicación: 20/01/2025
DOI: https://doi.org/10.47187/perspectivas.7.1.209
audio mediante el uso de un fenómeno físico, se
constituye la creación de un dispositivo capaz
de emitir audio a través de la modulación de una
descarga eléctrica lanzada al aire, que consta
principalmente de dos bobinas. Este elemento es
conocido comúnmente como Parlante de Plasma o
Bobina de Tesla Musical, también consideramos
agregar un amplificador de audio para que el
sonido tenga una mayor intensidad, y un filtro
pasa banda virtual diseñado en el software Matlab
para observar el comportamiento de la bobina de
Tesla musical a las diferentes frecuencias de los
tonos musicales.
Keywords: Música, Plasma, Análisis de Señal.
I. Introducción
Nikola Tesla (1853-1943), Serbian-American
engineer who owes his fame to his contribution to
the design of the alternating current distribution
system. In 1891 he created a resonant transformer
circuit, known today as a Tesla coil. He used the
coils to conduct experiments in X-ray generation,
electric lighting, electrotherapy and wireless
power transmission, among others [1]. Tesla
himself already came up with many variations of
this design and later new ones were made, but they
all have in common that they must consist of two
coupled circuits forming a transformer [2].
25
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
The Tesla Coil is a high-voltage, high-frequency
generating device that uses electromagnetism to
produce effects such as corona, efflux and electric
arcs. Tesla envisioned the possibility of using the
Tesla Coil to transmit electrical energy wirelessly,
without the need for conductors, although so far
this application has been limited by technical
difficulties in achieving efficient transmission [3].
The design of a Tesla coil is made considering a
primary transformer (with steel core) and from this
the parameters of the other elements that compose
a Tesla coil are selected [4]. The operation can be
seen as two resonant circuits weakly coupled by
air. The coupling coefficient between coils L1 and
L2 is usually between 0.1 and 0.2 [5].
Experiments that can be performed using the
coil are, demonstration of the corona effect, an
application of the Faraday cage, the protection
of lightning rods, the” presence” of the
electromagnetic field in space, the effect of high
voltages on gases under low voltages [6].
For the analysis of sound waves, the concatenation
of segments is used where each segment is
characterized by parameters, these can be different
when manipulating the signal and the frequency
can be modied by the damping values. To solve
the problem of linear transaction time estimates,
the poles must be known [7].
By means of MATLAB software where they used
the Simulink tool and the guide for the design
of the band-pass filters where they analyzed
the behavior of the musical Tesla coil for low,
medium and high tones considering the respective
frequencies for the different tonalities.
The frequencies that can be perceived by the
human ear range from 15 Hz to 20,000 Hz,
although in music the highest sounds usually
reach 5,000 Hz. Sounds below 15 Hz are called
infra sound, and above 20,000 Hz ultrasound [8].
Considering the different tonalities we consider
the bass tones which is in the frequency range
of 25 Hz to 125 Hz, medium tones having a
frequency range of 400 Hz to 2 KHz and the high
Music reproduction via plasma is an innovative
technology that has emerged in the field
of acoustics. It is based on using a plasma
discharge as a sound source instead of traditional
loudspeakers. Plasma speakers work by ionizing
air into small electrical discharges, which create
shock waves that propagate through the air and
produce sound. One of the strengths of plasma
speakers is their ability to reproduce extremely
high and low frequencies, which makes them an
interesting option for high-quality music playback.
In addition, the sound of the plasma speaker is
immune to electromagnetic interference, making
it ideal for interference-sensitive environments.
When a Tesla coil is connected to an audio system,
audio signals can be sent to the coil to modulate
the frequency and amplitude of the electrical
discharges. This can generate tones and noises that
are synchronized with the music being played, the
audio modulation produces audible sounds due to
the electrical discharges. These sounds resemble
clicks, sparks and buzzes, and can be used
creatively in experimental musical compositions.
The Tesla coil consists of a resonant transformer
that includes a frequency-tuned primary circuit
together with a secondary coil. For its operation,
a high voltage transformer is used to supply the
Fig. 1: Tesla coil elements electronic circuit.
tones which is in a frequency range of 8 KHz to
12 KHz [9].
II. Theoretical Foundation
26
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Extensive research was carried out on the working
principles of the Tesla coil, as well as projects
related to its use in musical applications. Reliable
sources such as scientific articles, books, and
online resources are reviewed to gain an in-depth
understanding of the theoretical foundations and
practical applications of the Tesla coil in the
musical context.
Once the concepts necessary to develop a musical
Tesla coil have been understood, a block diagram
has been made for its implementation, there was
helping to understand the construction of the
musical Tesla coil as we can notice in Figure 2.
III. Methodology
required electric current. Using this mechanism,
the capacitor in the primary circuit is charged.
When the voltage reaches a sufficiently high
level, the transformer and capacitor overcome
the electrical resistance of the air in the exposer,
generating an electric arc that allows the discharge
of the capacitor in the primary coil. The primary
coil is in resonance with the secondary coil [10].
When current flows through the primary coil, an
electromagnetic field is generated which allows
the transfer of energy to the secondary coil to
increase the voltage. When discharged to ground,
a strong electromagnetic field is produced in
the toroid, resulting in an electric arc into the
surrounding air due to the high voltage, which
can be on the order of hundreds of thousands of
volts. For optimum operation, it is crucial that the
primary and secondary coils are in resonance,
which is achieved by adjusting the inductors
and capacitors in the respective primary and
secondary circuits [10].
In the Figure 1, the Tesla coil electronic schematic
is shown, which integrates the following elements:
Power supply: This frequency control circuit
feeds the primary circuit with a square wave
signal modulated at the resonant frequency
of the circuit to obtain the maximum possible
voltage [11].
Capacitor: a passive device used in electricity
and electronics; this device allows storing
electric energy by supporting a certain
electric field [12].
Primary Circuit: This is an L-C circuit
fed by a switched-mode power supply that
generates a square excitation signal at the
resonant frequency of the circuit [11].
Coil L1: The primary circuit coil must have
few turns and a larger wire section than the
secondary circuit coil to be able to raise the
voltage in a similar way to a conventional
transformer, the primary coil usually has
between 5 and 12 turns, it is calculated
using Wheeler’s formula expressed in Eq.
(1), where: N1 is the number of turns of
the primary coil, R1 is the radius of the
circumference of the base (cm), and H1 is the
height of the primary coil (cm). The primary
coil is used to establish the resonance between
the primary circuit and the secondary circuit
[11].
Secondary circuit: The secondary circuit
is composed of another L-C circuit
magnetically coupled to the primary circuit
[11].
Coil L2: The secondary coil must have a
higher inductance than the primary coil. The
number of turns constituting the secondary
coil is much higher than in the case of
the primary circuit coil, in the order of a
thousand turns [11]. The inductive value of
L2 is calculated using Eq. (2), where: N2 is
the number of turns of the second coil, R2 is
the radius of the circumference of the base
(cm), and H2 is the height of the second coil
(cm).
(1)
(2)
L = (9R + 10H )[mH]
2540
1
1 1
2 2
N R
1 1
.
.
L = (9R + 10H )[mH]
2540
2
2 2
2 2
N R
2 2
.
.
27
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Fig. 2: Block diagram of Tesla coil elements interaction.
Fig. 3: Musical Tesla coil electronic circuit.
A. Passive elements and frequency of work
The size of the Tesla coil to be used, that is,
the physical dimensions of the coil, must be
determined. The resonance frequency of the
circuit (f0) depends on the inductance of the
secondary coil (L2) and the capacitances that
make up the secondary of the circuit, that is, the
one that is generated between the turns of the
secondary coil (CL2) and the discharge capacitor
(Cd) [1].
B. Trip circuit
To carry out the firing circuit, power circuits are
used whose core is formed by a MOSFET or power
transistors. They are all basic configurations that
can be found in any power electronics manual [1].
C. Circuit power
The power of the circuit depends on two variables,
the first and main one is the amount of energy
required by the firing circuit, the other is the
desired mobility of the Tesla coil [1]. Although
Tesla coils are powered by direct voltage, they
can be connected to the electrical network if
preferred. For our Tesla coil we are using a laptop
charger that gives us 20V, 7.5A and 150W at the
output of the charger, which is more than enough
to power our circuit.
D. Design and construction
Based on the knowledge acquired in the
preliminary investigation, we proceeded to
design a Tesla coil circuit adapted to the specific
objectives of the project. We carefully select the
necessary components, the primary coil and
the secondary coil, considering factors such
as power, resonant frequency and modulation
capacity. Electrical safety was considered at every
stage of the design. Subsequently, the physical
construction of the Tesla coil was proceeded
following the appropriate assembly guidelines.
E. Tesla coil
The Tesla coil consists of two main components:
the primary coil and the secondary coil. The
primary coil is connected to a power source,
and the secondary coil is magnetically coupled
to the primary coil. Both coils are made up of
a series of turns of insulated copper wire. When
high frequency power is applied to the primary
coil, an electromagnetic field is created which
propagates through the secondary coil, this
induces an electric current in the secondary coil
and generates high voltages at its upper end.
In Figure 3, in the light blue box is the Tesla coil
circuit consisting of a power supply, a MOSFET
transistor TIP41C, but for the realization of the
circuit has been used the MOSFET TIP35C for its
characteristics mentioned above in the datasheet,
also has a resistance of 1 KΩ to 1 W and a primary
winding and a secondary winding.
1) Primary winding: For the primary winding,
1.5 mm diameter copper wire was used, which
is of a larger diameter than the secondary
winding, so it was wound in the secondary
winding, which consists of 6 turns.
2) Secondary winding: For the secondary winding
they used enameled copper wire AWG 31 of
0.2 mm in diameter, they also used a PVC tube
of 2.5 cm in diameter and 30 cm long in which
they proceeded to wind the enameled copper
by means of the calculations made previously,
this coil consists of 1200 turns. Where the
coefficient ”44.2 [1/cm]” is a value obtained
from the data sheet and h is the height that the
winding is intended to have.
28
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Fig. 5: FIR Filter design in Simulink/Matlab.
Fig. 6: Control interface designed in Guide/Matlab.
Fig. 4: Block diagram of final outline of Tesla coil circuit.
F. Audio implementation
Audio integration into the musical Tesla coil
involves synchronizing the played audio with
the electrical discharges generated by the Tesla
coil. This allows sound effects to be modulated
and matched to the music being played. The
audio driver circuitry allows audio playback to
be modulated and synchronized with electrical
discharges from the Tesla coil.
In the Figure 3 the red box shows the driver
circuit consisting of a 10 KΩ potentiometer, a 1
uF capacitor at 100V, a 3.5 mm female mini-jack
adapter for the audio input and an IRFP250N
transistor commonly used to amplify or switch
electronic signals.
In the Figure 4, a block diagram shows the
components interaction of the musical Tesla coil,
which is explained below:
Computer music: The computer is responsible
for providing my audio signal which requires
a process that first the sound is generated
or reproduced in digital form where the
sound card is responsible for processing and
converting these digital audio signals into
analog signals, then the sound waves are
amplified to increase their energy level and
finally sent by a 3.5 mm audio jack.
Band pass filters: The band pass filter allows
a specific range of frequencies to pass. The
pass band is generally centered around a
central frequency and has a certain bandwidth
that defines the range of frequencies that are
allowed to pass. This filter was developed in
Matlab with the objective of analyzing the
behavior of bass, mid and treble sounds.
Amplifier: The amplier is used to increase
the power signal, making it strong enough
to drive the Tesla coil and have a greater
perception of the sound.
Primary coil: The primary coil applies an
alternating current, when the current flows
through the primary coil, it generates a
magnetic field that changes direction at a
high frequency.
Secondary coil: The secondary coil is located
close to the primary coil and is magnetically
coupled to it. When the magnetic field of the
primary coil changes rapidly due to the AC
current, it induces a current in the secondary
coil. This induced current in the secondary
coil is amplified and results in the generation
of high voltages in the secondary coil.
Plasma speaker: It is a speaker that creates
sound by rapidly modulating an electrical
discharge. The rapid oscillation of the electric
arc produces a fluctuating column of ionized
air, which is plasma. To generate sound the
audio signal modulates the intensity of the
electric arc, which causes the plasma to
rapidly expand and contract in synchrony
with the audio signal.
29
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
The results obtained in the tests showed that
the musical Tesla coil was able to generate high
frequency and voltage controlled electrical
discharges and modular audio in a synchronized
manner. Sound and visual effects were achieved.
Figure 5 shows the design of the FIR bandpass
filters, which are of Chebyshev type of order 50
with their respective gain, where the low, medium
and high tones are controlled.
Figure 6 shows the design of the sliders that allow
to control the frequency range of the different
tones and work together with the filters designed
in Simulink.
As it can be seen in Figure 7, the implemented
musical Tesla coil with the electronic circuit
is shown. The computer oversees sending the
audio to the coil, where it oversees modulating
the frequencies and synchronizing them with the
music.
The distance of the arc or electric spark produced
by the device was measured, reaching 0.5 [cm]
in length, which was more than enough for the
visual part.
However, they noticed some inconveniences in
the musical part, the volume when playing music
is not very high, but it is heard perfectly, the
TIP35C transistor works correctly, but it heats up
quickly having an operating time of 42 seconds.
A solution to this problem is that the transistors
have their respective heat sink and thermal paste
to increase the time of use.
The integration of audio into the musical Tesla
Coil allows the modulation and synchronization
of the audio playback with electrical discharges.
This creates an immersive sensory experience,
where the sound effects are coordinated with
the visual effects, thus enhancing the viewers
experience.
The Tesla coil is a device that uses the principle
of resonance, in this case electrical, to raise
the frequency of a voltage signal by means of a
special transformer, which generates the emission
of surrounding air plasma.
The filter designed in the Matlab software worked
as expected, since FIR filters are ideal for discrete
signals, thus being able to make the designed
circuit play any song, being able to analyze the
behavior of the electric arc to the low, medium
and high tones.
[1] B. Aguirre, “Universidad Tecnológica
Nacional Proyecto Final Reproducción de
música mediante la generación de Plasma
Autores: Facultad Regional Paraná.
[2] “Bobina de Tesla 57.” [Online]. Available:
http://www.ucm.es/centros/webs/oscar/
[3] L. Y. Generación Control De Alto
Voltaje, E. Mantenimiento Eléctrico
AUTORES, and B. Arias Francisco
Ismael Rivera Chiriboga Diego Roberto,
“UNIVERSIDAD TÉCNICA DEL NORTE
FACULTAD DE EDUCACIÓN, CIENCIA
Y TECNOLOG´IA.
[4] “Héctor Cadavid Ramirez, Oscar Román
Tudela, Gillermo Aponte Mayor, Francisco
Javier Garcia”, ”Diseño y construcción de
una bobina de tesla”, ”2001”.
[5] E. Pérez, O. Francés, and V.
Senosiáin Miquélez, “ESCUELA
TÉCNICA SUPERIOR DE
INGENIEROS INDUSTRIALE Y DE
TELECOMUNICACIÓN DISEÑO Y
CONSTRUCIÓN DE UNA BOBINA
TESLA.
IV. Results V. Conclusions
VI. References
Fig. 7: Implementation of the musical Tesla coil.
30
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
[6] C. E. Laburu, S. De, and M. Arruda,
“LABORATORIO A CONSTRUCIA
DE UMA BOBINA DE TESLA PARA
CASEIRO USO EM DEMONSTRAC¸ O˜
ES NA SALA DE AULA,” 1991.
[7] “Nelson Aimacaña, Marayma Cují, Alex
Llamuca, Isabel Vaca, Tony Flores”,
”Modelado de Seáal por Segmentos
Exponenciales y Aplicación en el Análisis
de Voz”, ”PERSPECTIVAS”, ”2015”
[8] “Pastor Martíın, Ángel”, ”Matemáticas en
la música”, ”Redined”, ”2008”.
[9] Juan E. San Martíın, ”Facultad de Bellas
Artes UNLP”, ”Clase 15: Técnicas de
Ecualización aplicadas a la mezcla”
[10] F. Pinilla and V. Pinilla, “DISEN˜ O DE UN
PROTOTIPO DE BOBINA TESLA CON
TENSIO´ N DE OPERACIO´ N PICO DE
280kV.
[11] A.: Saray and M. Ruiz, “Trabajo Fin de
Grado Diseño paramétrico de bobinas de
Tesla Parametric design of Tesla coils,
2017.
[12] L. Y. Generación Control De Alto
Voltaje, E. Mantenimiento Eléctrico
AUTORES, and B. Arias Francisco
Ismael Rivera Chiriboga Diego Roberto,
“UNIVERSIDAD TÉCNICA DEL
NORTE FACULTAD DE EDUCACIÓN,
CIENCIA Y TECNOLOGÍA.
31
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
MACHINE LEARNING ALGORITHMS FOR
PREDICTIVE MAINTENANCE: A SYSTEMATIC
LITERATURE MAPPING
1 Programa de Doctorado en Ingeniería Eléctrica, Escuela Politécnica Nacional (EPN), Quito, Ecuador.
2 Maestría en Electrónica y Automatización, Escuela Superior Politécnica de Chimborazo (ESPOCH), Riobamba, Ecuador.
RESUMEN
ABSTRACT
Jorge Paredes Carrillo 1jorge.paredes01@epn.edu.ec
Carlos Romero Barreno 2carlos.romerob@espoch.edu.ec
Predictive maintenance is a practice that industrial
companies can apply to their processes thanks to
technologies such as artificial intelligence and the
Internet of Things. Machine Learning algorithms
are used in many fields to make predictions or
classifications. Predictive maintenance is an area
of research that provides new practices, strategies,
or methodologies. As a relatively new field, the
methodologies are still scattered and there is little
information on the maturity of the algorithms.
To provide a solid foundation, a systematic
literature review is presented to give engineers
and researchers an overview of machine learning
algorithms used in predictive maintenance. The
results obtained show some growth in recent years,
demonstrating the interest in this area of research.
However, most of the contributions in this field
can be summarized as concept proofs and it is still
difficult to obtain a prototype that can be validated
as a complete and certified system. This paper
describes the main machine learning algorithms
used in predictive maintenance according to their
type of use and supervision, analyses their input
and output parameters, and determines their
maturity.
Keywords: Machine Learning, Predictive
Maintenance, Systematic Literature Mapping,
PdM.
El mantenimiento predictivo es una práctica que
gracias a tecnologías como la inteligencia artificial
e internet de las cosas permiten que las empresas
industriales lo puedan aplicar en sus procesos. Los
algoritmos de Machine Learning son utilizados
en muchos campos y sirven para realizar tareas
de predicción o clasificación. El mantenimiento
predictivo es un campo de Investigación que aporta
con nuevas prácticas, estrategias o metodologías. Al
ser un campo relativamente nuevo las metodologías
aún se encuentran dispersas y existe poca información
sobre la madurez de los algoritmos. Para proporcionar
una base sólida, se presenta un mapeo sistemático
de literatura con el objetivo de ofrecer a ingenieros e
investigadores una visión general de los algoritmos
de Machine Learning usados en mantenimiento
predictivo. Los resultados obtenidos muestran un
crecimiento en los últimos años demostrando un
interés en este campo de investigación. Sin embargo,
la mayoría de las contribuciones en este campo
se pueden resumir como pruebas concepto y aún
resulta difícil obtener un prototipo para que sea
validado como un sistema completo y certificado. En
este artículo se describen los principales algoritmos
de Machine Learning usados en mantenimiento
predictivo de acuerdo al tipo de uso y su supervisión,
además, se analizan los parámetros de entrada y las
salidas de los mismos y por último se determina su
nivel de madurez.
Palabras Clave: Machine Learning,
Mantenimiento Predictivo, Mapeo Sistemático de
Literatura, PdM.
REVISTA PERSPECTIVAS
Algoritmos de Machine Learning usados en mantenimiento
predictivo: un mapeo sistemático de literatura
Fecha de Recepción: 06/03/2023. Fecha de Aceptación: 05/06/2024 Fecha de Publicación: 20/01/2025
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
DOI: https://doi.org/10.47187/perspectivas.7.1.227
32
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
The world is currently experiencing a new
industrial revolution called 'Industry 4.0', thanks
to advances in technologies such as artificial
intelligence, the Internet of Things (IoT) or big
data [1]. To ensure digital transformation, a new
approach is needed that combines physical and
digital systems. The integration of these two
systems will result in a large amount of data
from different parts of a factory, which must be
processed to extract information [2].
The use of IoT architectures generates a large
amount of data [3]. Much of this data includes
events and alarms that occur on the production
line of a factory. By processing and analyzing this
data, information about the production process can
be easily obtained. This is important for decision
making, maintenance tasks, fault detection, cost
reduction and improving operator safety [4].
The above benefits are closely related to internal
processes in the manufacturing industry. It is
necessary to implement strategies to identify
possible failures in critical machinery in order to
avoid unplanned shutdowns that affect production
[5]. For example, [6] proposes the monitoring of
an oil refinery's compressed gas system, using
Industrial Internet of Things architectures to
obtain data from specific machines and then using
machine learning algorithms to obtain predictions
of the machine's current state. A system to
perform predictive maintenance tasks is proposed
by [7], which is able to obtain a health index of
the machinery of an entire factory. A predictive
maintenance model uses neural network algorithms
to determine the remaining life of a machine and
supports maintenance scheduling in a factory [8].
A method can use quantitative and qualitative
analysis to apply machine learning techniques
to predict failures, thereby aiding maintenance
decision making and reducing the costs associated
with these tasks [9].
Several nomenclatures can be found in the literature
to describe maintenance strategies. However, in
this paper we consider the classification proposed
by [10]. They classify maintenance strategies as
shown below:
I. Introduction Corrective maintenance: this type of maintenance
is carried out to repair a machine after a fault has
occurred.
Preventive maintenance: this is carried out at
regular intervals according to a maintenance
schedule, even if the machine has not yet failed.
Predictive maintenance: this type of maintenance
attempts to predict a future failure before it occurs
in order to plan maintenance tasks and reduce
costs.
Fig. 1 gives an overview of the types of maintenance.
Although corrective maintenance is the simplest
strategy, it requires stopping production to correct
the fault, which increases maintenance costs.
Preventive maintenance is effective in preventing
breakdowns, but increases costs by performing
unnecessary maintenance when the machine is in
optimal condition. Predictive maintenance uses
data on specific machine quantities and a history
of failures. It can also use statistical approaches
and machine learning algorithms. Therefore,
predictive maintenance has several advantages,
such as maximizing machine uptime and reducing
maintenance tasks and associated costs [11].
Predictive maintenance uses machine learning, an
application of artificial intelligence, as its main
tool. This approach is the most optimal because
several machine learning algorithms have recently
emerged that are highly accurate and easy to
implement. In addition, machine learning is also
capable of handling large amounts of data and
extracting hidden relationships from dynamic
environments such as industrial environments
[12]. Therefore, machine learning can serve as
a powerful tool in predictive maintenance tasks,
although it is highly dependent on the algorithm
used. Therefore, the aim of this paper is to
present a systematic literature review that presents
the main machine learning algorithms used in
predictive maintenance. This paper provides a
useful background on the main machine learning
algorithms, as well as their main applications and
maturity levels, and will help future research work.
The paper is structured as follows: Section II
33
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
II. Background
presents a background with several concepts of
the different machine leaning algorithms Section
III presents the planning and execution of the
systematic literature mapping. Section IV presents
a description of the main machine learning
algorithms used, while section V presents the
types of input data and outputs produced by the
algorithms, as well as their maturity. Section VI
presents a related work and finally, section VII
presents the contributions and conclusions of this
paper.
It is important to have some concepts, so here is
a brief description of some that were considered
important after the systematic mapping:
Machine learning: is a branch of articial
intelligence that allows machines to learn
without being programmed. This allows
machines to make predictions, classify or
identify patterns [13].
Supervised algorithms: they base their learning
on a set of previously labelled data, so that the
value of their target attribute is known [14].
Unsupervised algorithms: they base their
learning on an unlabeled data set, or no target
value or class is known. It is used for clustering
tasks [14].
Regression: aims to predict a numerical result
Fig. 1: Overview of types of maintenance
[15].
Classification: aims to predict a categorical
outcome [15].
Linear regression: is a supervised machine
learning algorithm. It is a data analysis
technique that predicts the value of unknown
data using another related and known data
value [16].
Decision tree: is a supervised, non-parametric
machine learning algorithm. It has a
hierarchical tree structure consisting of a root
node, leaf nodes and internal nodes. It can be
used for regression or classification tasks [17].
Random forest: is a popular machine learning
algorithm used for classification or regression.
It is a set of decision trees [18].
Support Vector Machines: is a supervised
machine learning algorithm that allows
finding the optimal way to classify among
several classes. It can be used for both
regression and classification. It is based on the
principle of separating two classes by means
of a hyperplane called a support vector [19].
Neural Networks: is a type of supervised
machine learning algorithm that aims to
simulate the behavior of the human brain. It
can be defined as a network of interconnected
nodes. They can be used to perform
classification or regression [20].
K-means: is an unsupervised machine learning
algorithm that attempts to form clusters of
data with similar characteristics [21].
K-nearest neighbor: is a supervised non-
parametric machine learning algorithm. It is
based on the distance from one data to another
and classifies objects based on the classes
of the nearest neighbors. This algorithm is
designed to perform classifications, although
it can also be applied to regressions [22].
Long short-term memory: This is a type of
recurrent neural network. The output of the last
stage feeds the current stage. It is specifically
designed to handle sequential data. It is used
for classification or regression [23].
Autoencoder: is a machine learning technique
that attempts to reconstruct the input data
from the output to eliminate errors or outliers
[24].
34
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
III. Related works
IV. Systematic Literature Mapping
Machine learning algorithms used in predictive
maintenance is an area that is currently being
researched and exploited. Some literature
review works have already emerged from this
field. Carvalho et al, focuses on describing four
important algorithms such as random forest, neural
networks, support vector machine and k-means, in
addition, it also mentions the type of equipment
where these algorithms can be used, the year in
which this research is conducted is 2019 [25].
Machine learning algorithms can be used to
perform regression or classification. Classification
is an important task and supervised or
unsupervised algorithms can be used. Saranavan et
al, provide a literature review where they focus on
those supervised machine learning algorithms to
perform classifications, revealing methodologies,
advantages and disadvantages [26].
Another approach is to compare machine learning
algorithms used in predictive maintenance,
Silvestrin et al, provides a comparison of
convolutional neural networks with time series,
finding significant differences in the use of
convolutional neural networks [27]. Industry 4.0
is the new industrial revolution that the world is
currently experiencing, which is why Serradilla
et al, in their literature review, provide models
of machine learning architectures that can be
used in predictive maintenance tasks to ensure
reproducibility and replicability in different
environments. Following the Industry 4.0 line,
Drakaki et al. provide an insight into the main
machine learning algorithms used in predictive
maintenance of induction motors, focusing on
machine learning architectures and techniques
[28].
Focusing on more specific applications, there
are several works, the most notable of which is
that of Olesen et al. It identifies new trends and
challenges that can be solved by using predictive
maintenance and machine learning in pumping
systems and thermal power plants [29].
Of the works described above, none focuses on
classifying the algorithms or analyzing the types
of input data required by the machine learning
algorithm to be used and the output produced
by the algorithm. Similarly, no work focuses on
providing a maturity level for machine learning
algorithms used in predictive maintenance.
A systematic literature mapping SLM can
provide an overview of the area of interest.
This method identifies, appraises and interprets
information relevant to a particular area, problem
or phenomenon of interest [30]. A systematic
literature review is a secondary study that aims to
critically evaluate research with a similar scope.
The methodology proposed by [31] is used to
carry out SLR.
A. Scope of the Study
The main objective of this study is to provide an
overview of the state of the art of machine learning
based data analysis algorithms used in predictive
maintenance. To successfully achieve this goal, the
following research questions have been proposed:
RQ 1. What types of machine learning
algorithms are used in predictive maintenance?
RQ1.1 What are the algorithms?
A classification of all the algorithms
found will help the reader to have a
better understanding to find similarities
or differences that will help to improve
predictive maintenance.
RQ 2. What input data does the machine
learning algorithm use?
Identifying the input and output parameters is
important as it will help to better understand
how the algorithms used in machine learning
work.
RQ 2.1 What types of data does the machine
learning algorithm use?
Knowing whether the data used in machine
learning is synthetic or real data is important
for predictive maintenance applications.
RQ 2.2 What input parameters are required
for this type of data?
35
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
RQ 3. What is the output of the algorithm?
It is important to know the type of output the
algorithm produces to use it for predictive
maintenance tasks.
RQ 4. What is the maturity of the algorithms
used?
It is important to know the maturity level of the
algorithms in order to know which ones are most
commonly used in predictive maintenance tasks.
B. Study Identification
A database-driven search approach was used
in this study, with Scopus as the main search
database:
1) Search String
The choice of keywords to construct the search
string was based on common terms used in
the literature and terms related to this work
(for example, PdM or ML). Some of the terms
suggested by [32] were used to find synonyms.
Table 1 shows the search string used.
The search string was validated by an expert
in the field. The expert provided 10 relevant
items, and the search string found 9 of them,
that is the string contains 90% of the items
provided by the expert.
A search was performed on 5 October 2023
and 6019 items were found.
2) Inclusion and Exclusion Procedure
The inclusion and exclusion process consists of
two phases: an automatic phase and a manual
phase. The automatic phase uses the Scopus
functions, which values are listed in Table II,
while the manual phase uses the CADIMA
software [33]. A flowchart of the inclusion and
exclusion procedure is shown in Fig. 2.
TABLE I
Search String USed
((((predictive AND (maintenance or monitoring)) or PdM))
AND (“machine learning” or ML) AND (algorithm OR model
OR strategy OR technique))
The manual phase was carried out on 2349
articles after removing duplicate articles
with a CADIMA proprietary function using
the inclusion and exclusion criteria in Table
III. Before starting the manual phase, a pilot
phase was carried out between the principal
investigator and the expert with a set of 10
randomly selected articles to standardize the
inclusion and exclusion criteria. The title and
abstract of each article were read and marked
as included or excluded. To ensure inter-rater
reliability, the Krippendorff alpha coefficient
was set at 0.8, which is an accepted value in
most studies [34]. At the end of the pilot study,
a Krippendorff alpha coefficient of 1 was
obtained.
The manual inclusion and exclusion process
consisted of 3 iterations carried out by the principal
investigator. In the first iteration, the title was
read and 502 articles were included for the next
iteration. In the second iteration, the abstract was
read, including 116 articles. In the third iteration,
TABLE II
Inclusion Criteria Used in Scopus
Filter Values
Research Field Engineering
Computer Science
Type of document Conference article
Journal article
Language English
Fig. 2: Inclusion and exclusion procedure
36
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
the conclusions were read, including 77 articles.
For the coding and information extraction phase
we have a set of 77 articles. Fig. 3 shows the
percentage of articles included in each iteration.
The articles included are presented in Appendix
A.
Four labels were used to classify articles in the
manual inclusion and exclusion phase. These
labels are:
Included: the article meets all the inclusion criteria
and none of the exclusion criteria.
Excluded: the article meets the exclusion criteria
or none of the inclusion criteria.
Unclear: the investigator is in doubt as to whether
the article should be included or excluded.
Secondary: the article is a secondary or tertiary
contribution.
Fig. 5 shows the number of articles published
between 2014 and 2023 using the exclusion
and inclusion criteria presented in this paper.
This confirms that predictive maintenance is
a technique that has been used in papers since
2014. On the other hand, it can be observed that
the interest in this field of research has increased
in recent years, reaching a peak between 2021
and 2023. This effect is related to the amount of
data generated by industrial equipment and the
latest advances in machine learning algorithms.
The small number of works in the field
of predictive maintenance is due to the
complexity of implementing efficient strategies
in production environments [39]. On the
other hand, the number of machine learning
algorithms is limited because data science is
still a relatively new field of study and there
are still no defined methodologies for obtaining
historical maintenance and failure data in
industrial environments.
A. RQ. 1. What types of machine learning
algorithms are used in predictive maintenance?
The articles reviewed fall into two main
categories: use and type of supervision. Most
articles report the use of supervised machine
learning algorithms and for use in regression
(data prediction). This is because the datasets
used are labelled and categorized, which makes
it easier to make a prediction or classification.
On the other hand, there is little work using
unsupervised machine learning algorithms,
as they only aim to find patterns of possible
failures for future use in maintenance task
planning. Unsupervised algorithms are more
prone to failure when making predictions or
classifications. Of the selected papers, those
using unsupervised algorithms are only used in
regression tasks.
Fig. 6 shows the proportion of papers using
supervised and unsupervised algorithms and
whether they are also used for regression or
classification.
TABLE III
Inclusion and Exclusion Criteria
Criteria Type Values
Inclusion (all must
be met)
The article must be related to predictive
maintenance.
The article must be related to data analy-
sis based on machine learning.
The article should contain information
about the machine learning algorithm
used.
The article must contain information
about the input and output parameters
as well as the data used in the machine
learning model used.
The article must be a primary contri-
bution.
Exclusion (none can
be fulfilled)
The article is a secondary or tertiary
contribution.
Fig. 3: Articles included in each iteration
V. Results
37
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
In more than 50% of the selected papers, machine
learning algorithms are used for regression,
since one of the main objectives of predictive
maintenance is to estimate the remaining useful
life (RUL). On the other hand, the algorithms
using classification try to provide a state of health
of the machine or equipment by classifying it in
categories proposed by each author.
Table IV summarizes the types of algorithms
according to their use and type of supervision in
the articles studied.
RQ. 1.1. What are the algorithms?
The papers consulted use a range of machine
learning algorithms that can be applied to
predictive maintenance tasks. These algorithms
range from those with a relatively simple
mathematical basis, such as linear regression,
to the more mathematically complex variants
of artificial neural networks.
The authors do not use a single algorithm in
their work but use several to test the accuracy
and error results of their main contribution.
The most used algorithms for supervised
models are:
Linear regression
Decision tree
Random forests
Support vector machines
Neural Networks
K-Nearest Neighbour
Gradient Boost
XGboost
Adaboost
Long term memory
Autoencoder
The choice of these algorithms depends very much
on the practical application and the data obtained.
For example, if you have a dataset with a lot of
outliers, a robust algorithm to use is Decision
Trees, while a vulnerable one is Adaboost.
On the other hand, the most used algorithms in
unsupervised models are:
• K-means
Neural Networks
Fig. 4: Classification Scheme used
Fig. 5: Classification Scheme used
Fig. 6: Papers per type and use and supervision
38
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Principal Component Analysis
In general, the k-means algorithm is the most used
in unsupervised models because it can group the
TABLE IV
Types of algorithms proposed on the studied papers
TABLE V
Algorithms proposed on the studied papers
Algorithm Type Papers studied
According to type of
supervision
Supervised
ID1, ID5, ID12, ID30, ID32, ID34, ID41, ID42, ID61, ID70, ID83, ID87, ID93,
ID100, ID103, ID109, ID127, ID137, ID140, ID144, ID148, ID153, ID156, ID158,
ID165, ID169, ID172, ID173, ID188, ID191, ID197, ID206, ID208, ID219, ID232,
ID240, ID245, ID249, ID250, ID254, ID272, ID283, ID291, ID294, ID310, ID325,
ID334, ID343, ID356, ID357, ID375, ID378, ID396, ID406, ID410, ID417, ID425,
ID429, ID431, ID435, ID444, ID448, ID454, ID460, ID463, ID471, ID477, ID483,
ID489, ID494, ID499, ID501, ID502
Unsupervised ID16, ID20, ID157, ID215,
According to use
Regression
ID1, ID16, ID20, ID30, ID32, ID34, ID42, ID83, ID87, ID100, ID109, ID127,
ID137, ID140, ID153, ID156, ID157, ID158, ID165, ID169, ID173, ID215, ID219,
ID245, ID250, ID254, ID272, ID294, ID310, ID334, ID356, ID406, ID410, ID417,
ID425, ID429, ID431, ID435, ID444, ID448, ID502
Clasification
ID5, ID12, ID41, ID61, ID70, ID93, ID103, ID144, ID148, ID172, ID188, ID191,
ID197, ID206, ID208, ID232, ID240, ID249, ID283, ID291, ID325, ID343, ID357,
ID375, ID378, ID396, ID454, ID460, ID463, ID471, ID477, ID483, ID489, ID494,
ID499, ID501
data into clusters to find possible relationships.
Fig. 7 shows the proportion of machine learning
algorithms used in predictive maintenance.
Table V summarizes the algorithms used on the
studied papers.
B. RQ 2. What input data does the machine
learning algorithm use?
To better understand the input data that a machine
learning algorithm uses, the research question
has been divided into two sub-questions. The
Fig. 7: Machine Learning algorithms
Algorithms Papers Studied
Linear regression ID12, ID100, ID431
Decision tree ID103, ID29, ID429
Random forests ID32, ID34, ID41, ID156, ID245
Support vector machines ID70, ID83, ID127, ID144, ID165,
ID191, ID272, ID356, ID375,
ID396, ID460
Neural Networks
ID1, ID5, ID30, ID42, ID61, ID87,
ID93, ID109, ID140, ID148, ID158,
ID169, ID172, ID173, ID188,
ID206, ID209, ID232, ID249,
ID250, ID254, ID283, ID294,
ID325, ID334, ID343, ID357,
ID378, ID406, ID410, ID417,
ID435, ID444, ID448, ID454,
ID463, ID471, ID477, ID483,
ID489, ID494, ID499, ID501,
ID502
K-Nearest Neighbour ID240
Gradient Boost ID191
XGboost ID137
Adaboost ID156
Long term memory ID310
Autoencoder ID16, ID157, ID208, ID425
K-means ID16, ID20
Principal Component
Analysis ID215
39
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
1) RQ 2.2. What input parameters are
required for this type of data?
The input parameters used in machine learning
algorithms are highly dependent on the
application and the machine being monitored.
For example, when monitoring an induction
motor, data such as current, voltage or power,
as well as vibration or temperature, are used to
estimate remaining life or classify a possible
failure. Another component susceptible to
failure and found in many machines is the
bearing, and data such as vibration, temperature
and radial load are usually obtained.
Some works also use historical failure data
as input parameters to avoid certain failures,
component degradation levels and failure
patterns. The choice of input parameters
depends very much on the components and
variables that can be measured and controlled
in the machinery to be monitored.
C. RQ 3. What is the output of the algorithm?
The main objective of predictive maintenance
is to anticipate an eventual failure, so the main
outputs of the machine learning algorithms are the
remaining useful life and a failure classification.
The prediction of the remaining useful life is
performed using regression algorithms. Depending
on the measured variables or input parameters
Fig. 8: Types of Data Used in Papers
first sub-question focuses on the types of data,
while the second sub-question focuses on the
input parameters required by machine learning
algorithms.
1) RQ 2.1. What types of data does the
machine learning algorithm use?
According to the classification scheme in
Figure 4, data can be divided into real and
synthetic data. Real data are those obtained
from the monitored machines that have not
been subjected to any outlier elimination or
filtering process. Synthetic data, on the other
hand, are those that have undergone various
processes to protect their information, as they
may belong to a machine of a critical process
in an industry.
Moreover 72% of the articles consulted use
real data obtained from different machines in
real or laboratory scenarios, although they are
also obtained from public repositories such
as the Bearing Data Center of Case Western
University Bearing, while the remaining
28% of the articles use synthetic data mainly
obtained from public repositories such as
NASA's CMAPSS and also from machines
present in industries that do not reveal their
name for reasons of confidentiality.
Table VI summarizes the types of data used in
studied papers.
Fig. 8 shows the proportion of data types used
in the selected articles.
TABLE VI
Types of data on the studied papers
Type of Data Papers studied
Real
ID1, ID5, ID16, ID20, ID30, ID34, ID42,
ID61, ID70, ID83, ID103, ID109, ID127,
ID140, ID144, ID148, ID153, ID156,
ID157, ID165, ID172, ID188, ID191,
ID197, ID206, ID208, ID215, ID232,
ID240, ID249, ID254, ID272, ID291,
ID294, ID310, ID325, ID334, ID343,
ID357, ID375, ID378, ID396, ID406,
ID410, ID417, ID425, ID429, ID431,
ID435, ID444, ID448, ID454, ID460
Syntethic
ID12, ID32, ID41, ID87, ID93, ID100,
ID137, ID158, ID169, ID173, ID219,
ID245, ID250, ID283, ID356, ID463,
ID471, ID477, ID483, ID489, ID494,
ID499, ID501, ID502
40
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
of the algorithm, the accuracy can increase or
decrease.
The classification of failures according to pre-
defined categories is useful for scheduling possible
maintenance tasks. It is also possible to determine
the state of health of the machine according to the
measured variables at a given time.
Fig. 9 shows the ratio of the outputs of the
algorithms obtained in the systematic mapping,
while Table VII summarizes the Outputs of the
algorithms.
D. RQ 4. What is the maturity of the algorithms
used?
Although machine learning algorithms already
have very concrete applications that are accessible
to the public, the level of maturity in predictive
maintenance is still very low. Most papers focus
on interpreting the data obtained to test different
performance metrics in controlled environments
or laboratories. More than 90% of the papers
selected in this study are only proof of concepts.
The papers that have been carried out in a relevant
environment represent 10% of the total number
of papers selected. Although the breakthrough
to relevant environments has been made, no
prototypes have been developed for testing in a real
environment, nor have the necessary qualifications
for a complete system been achieved.
Fig. 10 shows the proportion of maturity of
machine learning algorithms used in predictive
maintenance, while Table VIII summarizes the
algorithm maturity ratio
Fig. 9: Outputs of The Algorithm
Fig. 10: Algorithm Maturity Ratio
TABLE VII
Outputs of the algorithms on the studied papers
Output Papers Studied
Remaining useful
life RUL
ID1, ID16, ID30, ID32, ID42, ID61,
ID83, ID87, ID100, ID109, ID137, ID140,
ID153, ID156, ID157, ID158, ID165,
ID169, ID173, ID215, ID219, ID245,
ID250, ID406, ID410, ID417, ID425,
ID429, ID431, ID435, ID444, ID448,
ID454,
Faulire classifi-
cation
ID5, ID12, ID20, ID70, ID103, ID144,
ID148, ID188, ID191, ID197, ID206,
ID232, ID240, ID249, ID283, ID291,
ID325, ID396, ID460, ID463, ID471,
ID477, ID483
Health index
ID34, ID41, ID93, ID127, ID172, ID254,
ID272, ID294, ID310, ID334, ID356,
ID343, ID357, ID375, ID378, ID489,
ID494, ID499, ID501, ID502
There is no doubt that predictive strategies are
increasingly being used in industrial maintenance.
By using predictive strategies, they reduce the
costs associated with unplanned downtime and can
maximize their production. Although there is still
no defined methodology for data collection and
processing, progress has been made in this area,
especially since 2014, and the last three years have
seen exponential growth in these topics.
Machine learning emerged in the 90s with the aim
of giving computers intelligence. In this field, there
are already defined methodologies, strategies and
algorithms capable of solving specific problems,
which have been tested in relevant environments
and some form complete certified systems. Today,
with technological advances, it is relatively easy
to implement a machine learning algorithm for
either prediction or classification, and there are
VI. DISCUSSION
41
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
specialized frameworks and software for this type
of task.
Today, the transition from Industry 3.0 to Industry
4.0 has led to the emergence of new paradigms.
Artificial intelligence is one of the main enablers
of Industry 4.0, which, together with other
technologies such as the Internet of Things, can
create a new dimension of work that combines the
operational and administrative parts of companies.
In this way, both vertical and horizontal integration
will be achieved, providing companies with
competitive tools.
The relationship between predictive maintenance
and machine learning is extremely important, as
PdM is a product of ML. With the large amount of
data generated in today's factories, it is possible to
generate predictive or classification models with
acceptable, albeit improvable, accuracies.
Machine learning algorithms can be classified
according to the type of monitoring and the use
of monitoring, a classification widely accepted by
different authors. It is difficult to add new fields,
as the current ones are sufficiently broad and can
easily include other subcategories that we would
like to propose.
The algorithms proposed in the works related
to predictive maintenance have very solid
mathematical and statistical bases. Some algorithms
have advantages and disadvantages, such as noise
immunity or susceptibility to outliers. From the
review of the papers, there is a tendency to use
hybrid approaches that combine several algorithms
to provide robustness. Such hybrid algorithms still
need to improve their methodologies in order to be
implemented ubiquitously and with relative ease.
On the other hand, these approaches represent
new lines of research for future work that have a
solid foundation.
Although several literature reviews have been
carried out, most seek to establish a taxonomy or
classification of algorithms so that the reader can
have a broad vision and do not focus on a particular
application. However, this work provides the
author with a specific vision of machine learning
algorithms in the field of predictive maintenance.
In addition, the level of maturity of the algorithm
analyzed in the field can be measured, which is
important for implementation in the field. real life
of this type of applications.
Talking about input data would be very broad, as
predictive maintenance can be applied to many
machines, but the most common application is
for induction motors, although there are other
machines such as turbojet engines, gearboxes
or wind generators. However, there are other
approaches, such as monitoring specific machine
parts such as gears or bearings, which are
components with high mechanical wear due to
the working conditions they are exposed to. It
is important to use real data wherever possible
to create models that have real accuracy and can
be extrapolated to other applications. It is also
necessary to consider sharing knowledge with the
scientific community, so it is suggested to use real
rather than synthetic data sets.
Regarding the outputs of the algorithms, the most
common in predictive maintenance is to estimate
the remaining useful life, to have a classification or
to obtain the health index of the machine. However,
other outputs can be obtained, for example by
using supervised algorithms to find relationships
between the data obtained from the machine.
The prediction of remaining useful life can be
improved by using more data and more variables
to obtain estimates with an acceptable margin of
time before damage to the machine occurs.
Finally, the level of maturity of all the works
consulted is still insufficient to obtain a complete
and certified system. However, some works have
been tested in relevant environments such as
factories. This type of contribution can be used as
a basis for designing a prototype and validating it in
real conditions before any necessary certifications
are obtained.
VII. CONCLUSIONS
The main results of a systematic literature review
were presented to review the state of the art of
machine learning algorithms used in predictive
42
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
[1] P. Das, S. Perera, S. Senaratne, and R.
Osei-Kyei, “Paving the way for industry 4.0
maturity of construction enterprises: a state
of the art review,” Engineering, Construction
and Architectural Management, vol. ahead-
of-print, no. ahead-of-print, 2022, doi:
10.1108/ECAM-11-2021-1001/FULL/
XML.
[2] T. Borgi, A. Hidri, B. Neef, and M. S. Naceur,
“Data analytics for predictive maintenance
of industrial robots,” Proceedings of
International Conference on Advanced
Systems and Electric Technologies, IC_
ASET 2017, pp. 412–417, Jul. 2017, doi:
10.1109/ASET.2017.7983729.
[3] R. Alkhazaleh, K. Mykoniatis, and A.
Alahmer, “The Success of Technology
Transfer in the Industry 4.0 Era: A
Systematic Literature Review,” Journal of
VIII. Referencias
Open Innovation: Technology, Market, and
Complexity 2022, Vol. 8, Page 202, vol.
8, no. 4, p. 202, Nov. 2022, doi: 10.3390/
JOITMC8040202.
[4] R. S. Peres, A. Dionisio Rocha, P. Leitao,
and J. Barata, “IDARTS – Towards
intelligent data analysis and real-time
supervision for industry 4.0,” Comput
Ind, vol. 101, pp. 138–146, Oct. 2018, doi:
10.1016/J.COMPIND.2018.07.004.
[5] D. Martin, S. Heinzel, J. K. von
Bischhoffshausen, and N. Kühl, “Deep
Learning Strategies for Industrial Surface
Defect Detection Systems,” Proceedings of
the 55th Hawaii International Conference
on System Sciences, Sep. 2021, doi:
10.48550/arxiv.2109.11304.
[6] P. G. Ramesh, S. J. Dutta, S. S. Neog, P.
Baishya, and I. Bezbaruah, “Implementation
of Predictive Maintenance Systems in
Remotely Located Process Plants under
Industry 4.0 Scenario,” Springer Series
in Reliability Engineering, pp. 293–326,
2020, doi: 10.1007/978-3-030-36518-
9_12/COVER.
[7] Y. C. Chiu, F. T. Cheng, and H. C. Huang,
“Developing a factory-wide intelligent
predictive maintenance system based
on Industry 4.0,” https://doi.org/10.10
80/02533839.2017.1362357, vol. 40,
no. 7, pp. 562–571, Oct. 2017, doi:
10.1080/02533839.2017.1362357.
[8] G. M. Sang, L. Xu, and P. de Vrieze, “A
Predictive Maintenance Model for Flexible
Manufacturing in the Context of Industry
4.0,” Front Big Data, vol. 4, p. 61, Aug.
2021, doi: 10.3389/FDATA.2021.663466/
BIBTEX.
[9] A. Mubarak, M. Asmelash, A. Azhari,
T. Alemu, F. Mulubrhan, and K. Saptaji,
“Digital Twin Enabled Industry 4.0
Predictive Maintenance Under Reliability-
Centred Strategy,” 2022 1st International
Conference on Electrical, Electronics,
Information and Communication
Technologies, ICEEICT 2022, 2022, doi:
10.1109/ICEEICT53079.2022.9768590.
[10] K. Sarita, S. Kumar, and R. K. Saket, “Fault
Detection of Smart Grid Equipment Using
maintenance. An overview of algorithms and
predictive maintenance has been provided so
that researchers can further develop this area
of research with new contributions. While for
engineers and technicians, the maturity of the
algorithms is provided for future developments
leading to certification of a complete system.
This field of research is in constant development,
as can be seen in the growing number of articles
published in recent years. Most contributions
attempt to use an algorithm that is tested against
other algorithms to measure its metrics such
as accuracy or error. Machine learning has now
become a highly researched and developed topic
in various fields, although it is still at a low level
of maturity in predictive maintenance.
This work can serve as a theoretical basis for the
generation of hybrid algorithms that are much
more robust, with higher accuracy and lower
error. Consideration should also be given to the
generation of new methods to assist in the collection
and processing of data from industrial machines.
Finally, the topic should be further developed to
reach a level of maturity that allows industrial
companies to adopt this type of technology.
43
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Machine Learning and Data Analytics,
Lecture Notes in Electrical Engineering,
vol. 693 LNEE, pp. 37–49, 2021, doi:
10.1007/978-981-15-7675-1_4.
[11] I. Stanton, K. Munir, A. Ikram, and M. El-
Bakry, “Predictive maintenance analytics
and implementation for aircraft: Challenges
and opportunities,” Systems Engineering,
2022, doi: 10.1002/SYS.21651.
[12] T. Wuest, D. Weimer, C. Irgens, and
K. D. Thoben, “Machine learning in
manufacturing: advantages, challenges, and
applications,” http://mc.manuscriptcentral.
com/tpmr, vol. 4, no. 1, pp. 23–45, Jun. 2016,
doi: 10.1080/21693277.2016.1192517.
[13] J. Bell, “What Is Machine Learning?,
Machine Learning and the City, pp. 207–216,
May 2022, doi: 10.1002/9781119815075.
CH18.
[14] V. Garg and A. T. Kalai, “Supervising
Unsupervised Learning,” Adv Neural Inf
Process Syst, vol. 31, 2018.
[15] S.-E. Kim, Q.-V. Vu, G. Papazafeiropoulos,
Z. Kong, and V.-H. Truong, “Comparison of
machine learning algorithms for regression
and classification of ultimate load-carrying
capacity of steel frames,” Steel and
Composite Structures, An International
Journal, vol. 37, no. 2, pp. 193–209,
2020, Accessed: Feb. 23, 2023. [Online].
Available: https://www.dbpia.co.kr/journal/
articleDetail?nodeId=NODE10697357
[16] S. Rong and Z. Bao-Wen, “The research
of regression model in machine learning
field,” MATEC Web of Conferences, vol.
176, p. 01033, Jul. 2018, doi: 10.1051/
MATECCONF/201817601033.
[17] M. Somvanshi, P. Chavan, S. Tambade,
and S. v. Shinde, “A review of machine
learning techniques using decision tree and
support vector machine,” Proceedings - 2nd
International Conference on Computing,
Communication, Control and Automation,
ICCUBEA 2016, Feb. 2017, doi: 10.1109/
ICCUBEA.2016.7860040.
[18] Y. Liu, Y. Wang, and J. Zhang, “New
machine learning algorithm: Random
forest,” Lecture Notes in Computer Science
(including subseries Lecture Notes in
Artificial Intelligence and Lecture Notes in
Bioinformatics), vol. 7473 LNCS, pp. 246–
252, 2012, doi: 10.1007/978-3-642-34062-
8_32/COVER.
[19] Y. Tang, “Deep Learning using Linear
Support Vector Machines,” Jun. 2013, doi:
10.48550/arxiv.1306.0239.
[20] R. Y. Choi, A. S. Coyner, J. Kalpathy-
Cramer, M. F. Chiang, and J. Peter Campbell,
“Introduction to Machine Learning, Neural
Networks, and Deep Learning,” Transl Vis
Sci Technol, vol. 9, no. 2, pp. 14–14, Jan.
2020, doi: 10.1167/TVST.9.2.14.
[21] M. Ahmed, R. Seraj, and S. M. S. Islam,
“The k-means Algorithm: A Comprehensive
Survey and Performance Evaluation,
Electronics 2020, Vol. 9, Page 1295, vol.
9, no. 8, p. 1295, Aug. 2020, doi: 10.3390/
ELECTRONICS9081295.
[22] O. Kramer, “K-Nearest Neighbors,” pp. 13–
23, 2013, doi: 10.1007/978-3-642-38652-
7_2.
[23] Y. Yu, X. Si, C. Hu, and J. Zhang, “A Review
of Recurrent Neural Networks: LSTM
Cells and Network Architectures,” Neural
Comput, vol. 31, no. 7, pp. 1235–1270, Jul.
2019, doi: 10.1162/NECO_A_01199.
[24] W. H. Lopez Pinaya, S. Vieira, R. Garcia-
Dias, and A. Mechelli, “Autoencoders,”
Machine Learning: Methods and
Applications to Brain Disorders, pp.
193–208, Mar. 2020, doi: 10.48550/
arxiv.2003.05991.
[25] T. P. Carvalho, F. A. A. M. N. Soares, R.
Vita, R. da P. Francisco, J. P. Basto, and S.
G. S. Alcalá, “A systematic literature review
of machine learning methods applied to
predictive maintenance,” Comput Ind
Eng, vol. 137, Nov. 2019, doi: 10.1016/j.
cie.2019.106024.
[26] R. Saranavan and P. Sujatha, “A
State of Art Techniques on Machine
Learning Algorithms: A Perspective
of Supervised Learning Approaches in
Data Classification,” econd International
Conference on Intelligent Computing and
Control Systems (ICICCS). Accessed:
Feb. 23, 2023. [Online]. Available:
https://ieeexplore.ieee.org/abstract/
44
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
document/8663155
[27] L. P. Silvestrin, M. Hoogendoorn, and G.
Koole, “A Comparative Study of State-
of-the-Art Machine Learning Algorithms
for Predictive Maintenance Data-driven
capacity planning in long-term care View
project A Comparative Study of State-of-
the-Art Machine Learning Algorithms
for Predictive Maintenance,” 2019, doi:
10.1109/SSCI44817.2019.9003044.
[28] M. Drakaki, Y. L. Karnavas, I. A. Tziafettas,
V. Linardos, and P. Tzionas, “Machine
learning and deep learning based methods
toward industry 4.0 predictive maintenance
in induction motors: State of the art
survey,” Journal of Industrial Engineering
and Management (JIEM), vol. 15, no. 1, pp.
31–57, 2022, doi: 10.3926/JIEM.3597.
[29] J. F. Olesen and H. R. Shaker, “Predictive
Maintenance for Pump Systems and
Thermal Power Plants: State-of-the-Art
Review, Trends and Challenges,” Sensors
2020, Vol. 20, Page 2425, vol. 20, no. 8, p.
2425, Apr. 2020, doi: 10.3390/S20082425.
[30] B. Kitchenham, “Procedures for Performing
Systematic Reviews,” 2004.
[31] K. Petersen, S. Vakkalanka, and L.
Kuzniarz, “Guidelines for conducting
systematic mapping studies in software
engineering: An update,” Inf Softw
Technol, vol. 64, pp. 1–18, Aug. 2015, doi:
10.1016/J.INFSOF.2015.03.007.
[32] IEEE, “IEEE Thersaurus,” 2022, Accessed:
Feb. 08, 2023. [Online]. Available: http://
www.niso.org/publications/z394-
[33] C. Kohl et al., “Online tools supporting
the conduct and reporting of systematic
reviews and systematic maps: A case study
on CADIMA and review of existing tools,
Environ Evid, vol. 7, no. 1, pp. 1–17, Feb.
2018, doi: 10.1186/S13750-018-0115-5/
TABLES/3.
[34] Krippendorff Klaus, “Testing the Reliability
of Content Analysis Data,” 2007. Accessed:
Feb. 08, 2023. [Online]. Available: https://
studylib.net/doc/7447747/testing-the-
reliability-of-content-analysis-data
[35] F. Hoffmann, T. Bertram, R. Mikut, M.
Reischl, and O. Nelles, “Benchmarking in
classification and regression,” WIREs Data
Mining and Knowledge Discovery, vol. 9,
no. 5, Sep. 2019, doi: 10.1002/WIDM.1318.
[36] M. Dong, “Combining Unsupervised
and Supervised Learning for Asset Class
Failure Prediction in Power Systems,” IEEE
Transactions on Power Systems, vol. 34, no.
6, pp. 5033–5043, Nov. 2019, doi: 10.1109/
TPWRS.2019.2920915.
[37] T. P. Carvalho, F. A. A. M. N. Soares, R.
Vita, R. da P. Francisco, J. P. Basto, and S.
G. S. Alcalá, “A systematic literature review
of machine learning methods applied to
predictive maintenance,” Comput Ind
Eng, vol. 137, Nov. 2019, doi: 10.1016/j.
cie.2019.106024.
[38] A. N. Jahfari, D. Tax, M. Reinders,
and I. van der Bilt, “Machine Learning
for Cardiovascular Outcomes From
Wearable Data: Systematic Review From a
Technology Readiness Level Point of View,
JMIR Med Inform 2022;10(1):e29434
https://medinform.jmir.org/2022/1/e29434,
vol. 10, no. 1, p. e29434, Jan. 2022, doi:
10.2196/29434.
[39] H. M. Hashemian and W. C. Bean, “State-of-
the-art predictive maintenance techniques,
IEEE Trans Instrum Meas, vol. 60, no. 10,
pp. 3480–3492, Oct. 2011, doi: 10.1109/
TIM.2009.2036347.
IX. Appendix
LIST OF STUDIED PAPERS
ID Reference Authors Year
1Evaluating time series encoding techniques for Predictive Maintenan-
ce
De Santo, A.; Ferraro, A.; Galli, A.; Moscato, V.;
Sperlì, G. 2022
5 Logistic-ELM: a novel fault diagnosis method for rolling bearings Tan, Z.; Ning, J.; Peng, K.; Xia, Z.; Wu, D. 2022
45
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
12 Data Science Application for Failure Data Management and Failure
Prediction in the Oil and Gas Industry: A Case Study
Arena, S.; Manca, G.; Murru, S.; Orrù, P.F.;
Perna, R.; Reforgiato Recupero, D. 2022
16 Fault detection and diagnosis for industrial processes based on cluste-
ring and autoencoders: a case of gas turbines Barrera, J.M.; Reina, A.; Mate, A.; Trujillo, J.C. 2022
20 Predicting Bearings Degradation Stages for Predictive Maintenance in
the Pharmaceutical Industry
Juodelyte, D.; Cheplygina, V.; Graversen, T.;
Bonnet, P. 2022
30 Remaining Useful Life Estimation of Cooling Units via Time-Fre-
quency Health Indicators with Machine Learning Rosero, R.L.; Silva, C.; Ribeiro, B. 2022
32 Simulation for predictive maintenance using weighted training algori-
thms in machine learning Jittawiriyanukoon, C.; Srisarkun, V. 2022
34 Real-Time Induction Motor Health Index Prediction in A Petrochemi-
cal Plant using Machine Learning Khrakhuean, W.; Chutima, P. 2022
41 Selecting an appropriate supervised machine learning algorithm for
predictive maintenance Ouadah, A.; Zemmouchi-Ghomari, L.; Salhi, N. 2022
42 On the Importance of Temporal Information for Remaining Useful
Life Prediction of Rolling Bearings Using a Random Forest Regressor
Bienefeld, C.; Kirchner, E.; Vogt, A.; Kacmar,
M. 2022
61 A recurrent neural network method for condition monitoring and
predictive maintenance of pressure vessel components Halliday, C.; Palmer, I.; Joyce, M.; Pready, N. 2022
70 Remaining Useful Life Estimation Using Fault to Failure Transforma-
tion in Process Systems
Arunthavanathan, R.; Khan, F.; Ahmed, S.;
Imtiaz, S. 2022
83 Estimation of Remaining Useful Life (RUL) of BLDC Motor using
Machine Learning Approaches Sree, R.D.; Jayanthy, S.; Vigneshwaran, E.E. 2022
87 Predictive Maintenance Algorithm Based on Machine Learning for
Industrial Asset
Alfaro-Nango, A.J.; Escobar-Gomez, E.N.;
Chandomi-Castellanos, E.; Velazquez-Trujillo,
S.; Hernandez-De-Leon, H.R.; Blanco-Gonzalez,
L.M.
2022
93 RNN-Autoencoder Approach for Anomaly Detection in Power Plant
Predictive Maintenance Systems
Santoso, B.; Anggraeni, W.; Pariaman, H.; Pur-
nomo, M.H. 2022
100 Predicting Remaining Useful Life of Wind Turbine Bearing using
Linear Regression Jellali, A.; Maatallah, H.; Ouni, K. 2022
103 Predictive Maintenance of Hydraulic System using Machine Learning
Algorithms Yugapriya, M.; Judeson, A.K.J.; Jayanthy, S. 2022
109
An Artificial Intelligence Neural Network Predictive Model for Ano-
maly Detection and Monitoring of Wind Turbines Using SCADA
Data
Amini, A.; Kanfoud, J.; Gan, T.-H. 2022
127 Predictive maintenance of abnormal wind turbine events by using ma-
chine learning based on condition monitoring for anomaly detection
Chen, H.; Hsu, J.-Y.; Hsieh, J.-Y.; Hsu, H.-Y.;
Chang, C.-H.; Lin, Y.-J. 2021
137 Remaining Useful Life Prediction of Equipment Based on XGBoost Jia, Z.; Xiao, Z.; Shi, Y. 2021
140
Integrating physics and data driven cyber-physical system for condi-
tion monitoring of critical transmission components in smart produc-
tion line
Song, L.; Wang, L.; Wu, J.; Liang, J.; Liu, Z. 2021
144 Application of machine learning to a medium gaussian support vector
machine in the diagnosis of motor bearing faults Lin, S.-L. 2021
148 IIoT Solution for predictive monitoring based on vibration data from
motors using Microsoft Azure machine learning studio and Power BI
Ferreira, R.H.M.S.; de Figueiredo, L.O.; Lima,
R.B.C.; Silva, L.A.P.; Barros, P.R. 2021
153 Predictive Analytics of Machine Failure using Linear Regression on
KNIME Platform Pakhir, E.A.; Ayuni, N. 2021
156 Predictive maintenance system for production lines in manufacturing:
A machine learning approach using IoT data in real-time Ayvaz, S.; Alpay, K. 2021
157 An applicable predictive maintenance framework for the absence of
run-to-failure data Kim, D.; Lee, S.; Kim, D. 2021
158 Two stage deep learning for prognostics using multi-loss encoder and
convolutional composite features Pillai, S.; Vadakkepat, P. 2021
165 Intelligent Predictive Maintenance Model for Rolling Components of
a Machine based on Speed and Vibration
Ahmad, B.; Mishra, B.K.; Ghufran, M.; Pervez,
Z.; Ramzan, N. 2021
169 Remaining Useful Life Prediction of Bearings Using Ensemble Lear-
ning: The Impact of Diversity in Base Learners and Features Shi, J.; Yu, T.; Goebel, K.; Wu, D. 2021
172 A deep learning model for predictive maintenance in cyber-physical
production systems using LSTM autoencoders
Bampoula, X.; Siaterlis, G.; Nikolakis, N.; Ale-
xopoulos, K. 2021
173 Remaining useful life (Rul) prediction of equipment in production
lines using artificial neural networks Kang, Z.; Catal, C.; Tekinerdogan, B. 2021
188 A Novel Approach for Incipient Fault Diagnosis in Power Transfor-
mers by Artificial Neural Networks De Andrade Lopes, S.M.; Flauzino, R.A. 2021
46
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
191 A Combination of Fourier Transform and Machine Learning for Fault
Detection and Diagnosis of Induction Motors
Duc Nguyen, V.; Zwanenburg, E.; Limmer, S.;
Luijben, W.; Back, T.; Olhofer, M. Limmer, S.;
Luijben, W.; Back, T.; Olhofer, M.
2021
197 Motor classification with machine learning methods for predictive
maintenance
Kammerer, C.; Gaust, M.; Küstner, M.; Starke, P.;
Radtke, R.; Jesser, A. 2021
206 Machine Learning Based Predictive Maintenance System for Indus-
trial Chain Conveyor System
Goh, K.W.; Chaw, K.H.; Yong, J.C.E.; Koh, Y.S.;
Dares, M.; Su, E.L.M.; Yeong, C.F. 2021
208 Bearing Fault Detection Using Comparative Analysis of Random
Forest, ANN, and Autoencoder Methods
Kamat, P.; Marni, P.; Cardoz, L.; Irani, A.; Gaju-
la, A.; Saha, A.; Kumar, S.; Sugandhi, R. 2021
215 Fault Detection of Smart Grid Equipment Using Machine Learning
and Data Analytics Sarita, K.; Kumar, S.; Saket, R.K. 2021
219 Automatic Remaining Useful Life Estimation Framework with Embe-
dded Convolutional LSTM as the Backbone
Zhou, Y.; Hefenbrock, M.; Huang, Y.; Riedel, T.;
Beigl, M. 2021
232 On-line fault diagnosis of rolling bearing based on machine learning
algorithm Sun, J.; Yu, Z.; Wang, H. 2020
240 EEMD assisted supervised learning for the fault diagnosis of BLDC
motor using vibration signal Shifat, T.A.; Hur, J.-W. 2020
245 Experimental analysis of machine learning algorithms used in predic-
tive maintenance
Sahasrabudhe, N.; Asegaonkar, R.; Deo, S.;
Umredkar, S.; Mundada, K. 2020
249 Wind power forecasting of an offshore wind turbine based on hi-
gh-frequency SCADA data and deep learning neural network Lin, Z.; Liu, X. 2020
250 A Hybrid Cyber Physical Digital Twin Approach for Smart Grid Fault
Prediction
Tzanis, N.; Andriopoulos, N.; Magklaras, A.;
Mylonas, E.; Birbas, M.; Birbas, A. 2020
254 Advanced Predictive Maintenance with Machine Learning Failure
Estimation in Industrial Packaging Robots Koca, O.; Kaymakci, O.T.; Mercimek, M. 2020
272 Failure Prediction of Aircraft Equipment Using Machine Learning
with a Hybrid Data Preparation Method Celikmih, K.; Inan, O.; Uguz, H. 2020
283 Predictive model for the degradation state of a hydraulic system with
dimensionality reduction Quatrini, E.; Costantino, F.; Pocci, C.; Tronci, M. 2020
291 Predictive Maintenance of Air Conditioning Systems Using Supervi-
sed Machine Learning
Trivedi, S.; Bhola, S.; Talegaonkar, A.; Gaur, P.;
Sharma, S. 2019
294 The Prediction of Remaining Useful Life (RUL) in Oil and Gas In-
dustry using Artificial Neural Network (ANN) Algorithm Fauzi, M.F.A.M.; Aziz, I.A.; Amiruddin, A. 2019
310 A deep learning approach for failure prognostics of rolling element
bearings Sadoughi, M.; Lu, H.; Hu, C. 2019
325 Intelligent fault diagnosis for rotating machines using deep learning
Sumba, J.C.; Quinde, I.R.; Ochoa, L.E.; Martí-
nez, J.C.T.; Vallejo Guevara, A.J.; Morales-Me-
nendez, R.
2019
334 Robot fault detection and remaining life estimation for predictive
maintenance Pinto, R.; Cerquitelli, T. 2019
343 Fault Analysis and Predictive Maintenance of Induction Motor Using
Machine Learning Kavana, V.; Neethi, M. 2018
356 Prediction of Remaining Useful Lifetime (RUL) of turbofan engine
using machine learning
Mathew, V.; Toby, T.; Singh, V.; Rao, B.M.;
Kumar, M.G. 2018
357 Transformer Fault Condition Prognosis Using Vibration Signals over
Cloud Environment Bagheri, M.; Zollanvari, A.; Nezhivenko, S. 2018
375 Increasing production efficiency via compressor failure predictive
analytics using machine learning
Pandya, D.; Srivastava, A.; Doherty, A.; Sunda-
reshwar, S.; Needham, C.; Chaudry, A.; Krish-
nalyer, S.
2018
378 Predictive maintenance strategy of running fault based on ELM algo-
rithm for power transformer Wu, Q.; Yang, X.; Deng, R. 2018
396 Fault diagnosis of automobile gearbox based on machine learning
techniques
Praveenkumar, T.; Saimurugan, M.; Krishnaku-
mar, P.; Ramachandran, K.I. 2014
406 Machine Learning for the Detection and Diagnosis of Anomalies in
Applications Driven by Electric Motors Ferraz, F.; Romero, R.; Hsieh, S. 2023
410 Neural Networks Detect Inter-Turn Short Circuit Faults Using Inverter
Switching Statistics for a Closed-Loop Controlled Motor Drive Oner, M.; Sahin, I.; Keysan, O. 2023
417 An Approach to Predicting the Residual Life of an Electric Locomo-
tive Traction Motor Sidorenko. V.; Kulaginm M. 2023
425 Optoelectronic sensor fault detection based predictive maintenance
smart industry 4.0 using machine learning techniques Zhu, C.; Shao, S. 2023
429 A Robot-Operation-System-Based Smart Machine Box and Its Appli-
cation on Predictive Maintenance Chang, Y.; Chai, Y.; Li, B.; Lin, H. 2023
47
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
431 Improving Reliability of 2 Wheelers Using Predictive Diagnostics Vijaykumar, S.; Sabu, A.; Pradhan, D.; Shrivard-
hankar, Y. 2023
435 Remaining Useful Life Estimation Using Fault to Failure Transforma-
tion in Process Systems
Arunthavanathan, R.; Khan, F.; Ahmed, S.;
Imtiaz, S. 2023
444 Tool remaining useful life prediction using bidirectional recurrent
neural networks (BRNN)
De Barrera, T.; Ferrando, J.; García, A.; Badiola,
X.; de Buruaga, M.; Vicente, J. 2023
448 Remaining cycle time prediction with Graph Neural Networks for
Predictive Process Monitoring
Duong, L.; Travé-Massuyès, L.; Subias, A.;
Merle, C. 2023
454 Remaining Useful Life Estimation for Railway Gearbox Bearings
Using Machine Learning
Beqiri, L.; Bakhshi, Z.; Punnekkat, S.; Cicchetti,
A. 2023
460 An IoT and Machine Learning-Based Predictive Maintenance System
for Electrical Motors Mohammed, N.; Abdulateef, O.; Hamad, A. 2023
463 A machine learning based predictive maintenance algorithm for ship
generator engines using engine simulations and collected ship data
Park J.;
Oh, J. 2023
471 Vibration Signal-Based Diagnosis of Wind Turbine Blade Conditions
for Improving Energy Extraction Using Machine Learning Approach Sethi, M.; Sahoo, S.; Dhanraj, J.; Sugumaran, V. 2023
477 LSTM-Based Condition Monitoring and Fault Prognostics of Rolling
Element Bearings Using Raw Vibrational Data Afridi, Y.; Hasan, L.; Ullah, R.; Ahmad, Z. 2023
483 Multivariate Time-Series Classification of Critical Events from Indus-
trial Drying Hopper Operations: A Deep Learning Approach Rahman, M.; Farahani, M.; Wuest, T. 2023
489 Predicting Forced Blower Failures Using Machine Learning Algori-
thms and Vibration Data for Effective Maintenance Strategies Salem, K.; AbdelGwad, E.; Kouta, H. 2023
494
Using machine learning and deep learning algorithms for downtime
minimization in manufacturing systems: an early failure detection
diagnostic service
Shahin, M.; Chen, F.; Hosseinzadeh, A.; Zand,
N. 2023
499 Anomaly detection in the temperature of an ac motor using embedded
machine learning Ismail, E.; Ahmad, M. 2023
501 Early detection of tool wear in electromechanical broaching machines
by monitoring main stroke servomotors
Aldekoa, I.; del Olmo, A.; Sastoque-Pinilla, L.;
Sendino-Mouliet, S.; Lopez-Nova, U.; del La-
calle, L.
2023
502 Remaining useful lifetime prediction for predictive maintenance in
manufacturing Taşcı, B.; Omar, A.; Ayvaz, S. 2023
48
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
ESTRATEGIAS DE MANTENIMIENTO CORRECTIVO
DE SOFTWARE: UN ESTUDIO DE CASO DE LA
ORGANIZACIÓN COMUNITARIA CACTU
1 Investigador Independiente, Ambato, Ecuador.
2 Investigador Independiente, Quito, Ecuador.
3 Grupo de Investigación en Innovación Científica y Tecnológica (GIICYT), Escuela Superior Politécnica de Chimborazo,
Riobamba, Ecuador.
4 Facultad de Informática y Electrónica, Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador.
5 Facultad de Administración de Empresas, Escuela Superior Politécnica de Chimborazo, Riobamba, Ecuador.
RESUMEN ABSTRACT
Guerra Fiallos P. 1
Avila-Pesantez 3
Ávila L.M. 5
pablo.guerra@gmail.com
davila@espoch.edu.ec
miriam.avila@espoch.edu.ec
López Ríos J. 2
Mena Reinoso A. 4
joseg.lopez@gmail.com
angel.mena@espoch.edu.ec
El sistema CACTU (Corporación de Asociaciones
Comunitarias de Cotopaxi y Tungurahua),
diseñado para gestionar la correspondencia entre
niños afiliados y sus patrocinadores extranjeros,
presentaba problemas operativos críticos. Para
resolver esta situación, se identificaron las
áreas problemáticas clave y se implementaron
soluciones técnicas a través de un mantenimiento
correctivo basado en la metodología Ágil
MANTEMA. Posteriormente, se evaluó la
fiabilidad del sistema conforme a la norma ISO/
IEC 25010, utilizando herramientas como JMeter,
Enlightn y R. Los resultados de la prueba U de
Mann-Whitney revelaron mejoras significativas en
los tiempos medios entre fallos, antes y después
del mantenimiento. En particular, la fiabilidad del
sistema aumentó de manera sustancial, pasando
del 34.38% al 88.80%, lo que se tradujo en mejoras
notables en la madurez, disponibilidad, tolerancia
a fallos y capacidad de recuperación del sistema.
Palabras Clave: Mantenimiento, Metodología
Ágil Mantema, Fiabilidad, Correspondencia.
The CACTU system (Corporación de Asociaciones
Comunitarias de Cotopaxi y Tungurahua), designed
to manage correspondence between affiliated
children and their foreign sponsors, presented
critical operational problems. Key problem areas
were identified to resolve this situation, and
technical solutions were implemented through
corrective maintenance based on the Agile
MANTEMA methodology. Subsequently, system
reliability was evaluated according to ISO/IEC
25010 using JMeter, Enlightn and R tools. The
results of the Mann-Whitney U test revealed
significant improvements in mean times between
failures before and after maintenance. In particular,
system reliability increased substantially, from
34.38% to 88.80%, significantly improving
system maturity, availability, fault tolerance and
resilience.
Keywords: Maintenance, Agile Mantema
Methodology, Reliability, Correspondence
Software Corrective Maintenance Strategies: A Case Study of
the Community Organization CACTU
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
DOI: https://doi.org/10.47187/perspectivas.7.1.230
Fecha de Recepción: 14/07/2024. Fecha de Aceptación: 25/10/2024 Fecha de Publicación: 20/01/2025
49
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
I. Introducción
El mantenimiento de software es crucial para
resolver diversos problemas que surgen tras el
despliegue inicial de un sistema. Este proceso
permite modificar un producto software después
de la entrega, para corregir defectos, mejorar el
rendimiento o adaptarlo a una nueva o cambiante
necesidad del entorno en el que operan [1].
Entre los problemas más comunes que aborda
se encuentran los errores o "bugs" que afectan
la funcionalidad del software (mantenimiento
correctivo), la necesidad de adaptar el software
a nuevos entornos o plataformas (mantenimiento
adaptativo), la mejora del rendimiento y la
optimización de recursos (mantenimiento
perfectivo), y la prevención de futuras fallas a
través de actualizaciones y mejoras de seguridad
(mantenimiento preventivo) [2]. El mantenimiento
asegura la estabilidad, fiabilidad y eficiencia del
software a lo largo del tiempo, respondiendo a las
demandas cambiantes del entorno tecnogico y
del usuario final. Sin un mantenimiento adecuado,
el software puede volverse obsoleto, inseguro o
ineficiente, afectando negativamente su vida útil y
la experiencia del usuario [3].
El mantenimiento correctivo asegura el correcto
funcionamiento a lo largo del tiempo. No hacerlo
puede ocasionar una serie de problemas que
afectan tanto al software en sí mismo como a la
organización que lo utiliza. Otros [4-5] definen
el mantenimiento correctivo como un proceso de
reparación de un problema en el software después
de que se ha descubierto que no está funcionando
correctamente.
En el ámbito del mantenimiento se utilizan términos
como falla, defecto y error. Según [6], una falla se
refiere a una disrupción o un desempeño deficiente
en un sistema, proceso o producto que impide
su capacidad para cumplir con su propósito o
función. Por otro lado, [7] define un defecto es una
imperfección o problema presente en un producto
o servicio, lo cual provoca que no se ajuste a los
requisitos o expectativas del usuario. Finalmente,
según [8], un error está relacionado con una acción
o decisión incorrecta que conduce a un resultado
no deseado o incorrecto. Generalmente, un error
es causado por un agente externo, que puede ser
humano, otro proceso o software.
El mantenimiento del software puede enfrentar
múltiples desafíos, tales como la adaptación a los
cambios continuos y el aumento en la complejidad.
Estos obstáculos pueden surgir a raíz de diversos
factores, como modificaciones en los requisitos del
software, dificultades en la gestión de proyectos,
carencia de documentación adecuada, y fallos
de programación [8 - 9]. Asimismo, el autor [10]
sostiene que a medida que el software evoluciona,
su estructura tiende a volverse progresivamente
más compleja, a menos que se realice un esfuerzo
deliberado para prevenir este fenómeno. Esto
implica que la complejidad en la construcción del
software se incrementa cuando los programadores
no pueden o no desean aplicar técnicas de
ingeniería de software.
La figura 1 representa el flujo de actividades y
tareas dentro de un proceso de mantenimiento
de software, diferenciando entre tareas
planificables y no planificables. Se inicia con
tareas comunes, como la valoración de la petición
y la documentación de posibles soluciones. Para
el mantenimiento planicable (correctivo no
urgente, perfectivo, adaptativo), se establecen
etapas como la planificación del calendario, la
ejecución de pruebas y la validación con el cliente,
antes de pasar el software a producción. En el caso
del mantenimiento no planificable (correctivo
urgente), el flujo conduce directamente a la
intervención y pruebas, sin etapas de planificación
previas. Finalmente, se realiza una revisión,
almacenamiento de datos del producto inicial
y tareas finales comunes para cerrar el ciclo de
mantenimiento.
Por otro lado, la falta de una metodología formal
para el mantenimiento del software puede llevar
a que este se realice de manera arbitraria, según
lo determine el propio programador [11]. Esto
puede generar problemas en la calidad y eficiencia
del mantenimiento. Esta opinión también es
compartida por [12], quien afirma que raramente
existen procesos establecidos, de modo que el
mantenimiento se lleva a cabo como se pueda.
Según [13], el mantenimiento de software puede
tener varios efectos secundarios, que se detallan
50
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
en la Tabla I, II y III.
A. Metodología Ágil MANTEMA
La metodología Ágil MANTEMA (proviene de la
combinación de las palabras "MANTenimiento"
y "MÉTodo") basada en SCRUM, se centra en
la gestión eficiente de las etapas y actividades
relacionadas con el mantenimiento de software,
transformándolas en procesos supervisables
y medibles de manera efectiva [12]. Ágil
MANTEMA define varios niveles de servicio,
destacando dos tipos de mantenimiento
correctivo: urgente (no planificable) y no urgente
(planificable). La principal diferencia reside en
la prioridad asignada, con el mantenimiento
correctivo urgente siendo de mayor prioridad en
comparación con el no urgente [13].
Fig. 1: Estructura del mantenimiento de software. Fig. 2: Diagrama de proceso de Ágil MANTEMA
Tabla I
Efectos del mantenimiento sobre el código
Tabla II
Efectos del mantenimiento sobre la documentación
Tabla III
Efectos del mantenimiento sobre los datos
Efecto Descripción
Introducción
de errores
Durante el mantenimiento del software, es posible
que se introduzcan nuevos errores en el código exis-
tente. Estos errores pueden ser el resultado de una
mala comprensión de los requisitos, una implemen-
tación incorrecta o una falta de pruebas adecuadas.
Aumento de la
complejidad
A medida que se realizan cambios en el código, es
posible que la complejidad del software aumente.
Esto puede dificultar la comprensión y el manteni-
miento del código en el futuro.
Impacto en la
eficiencia
Algunas modificaciones en el código pueden afectar
el rendimiento del software, lo que puede resultar en
una disminución de la eficiencia.
Efecto Descripción
Desactualiza-
ción
A medida que se realizan cambios en el software,
es posible que la documentación existente se vuelva
obsoleta. Esto puede dificultar la comprensión del
software y el mantenimiento futuro.
Falta de do-
cumentación
adecuada
Si la documentación existente no es clara o no refle-
ja con precisión el código fuente, puede ser difícil
comprender cómo un cambio en el código afecta a
otras partes del sistema.
Efecto Descripción
Pérdida de
datos
Durante el mantenimiento del software, es posible
que se produzca una pérdida de datos. Esto puede
ocurrir debido a errores en la implementación de
cambios o a problemas con la integridad de los
datos.
Inconsistencia
de datos
Al realizar cambios en el software, es posible que
se produzcan inconsistencias en los datos. Esto
puede dificultar el uso del software y la toma de
decisiones basadas en los datos.
Problemas de
seguridad
Al realizar cambios en el software, es posible que
se introduzcan nuevos problemas de seguridad.
Esto puede poner en riesgo la integridad y la
confidencialidad de los datos.
La concepción de Ágil MANTEMA se centra
en proporcionar orientación metodológica a
las pequeñas y medianas empresas que buscan
llevar a cabo eficientemente el mantenimiento de
software. Su estructura se ha diseñado tomando
como base las directrices establecidas, que se
visualiza en la figura 2.
51
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
II. desarrollo del mantenimiento del
software
En esta sección se describe el proceso de
mantenimiento del sistema implementado
mediante la metodología Ágil MANTEMA, el
cual se estructura en cuatro fases principales: (1)
Definición del proceso de mantenimiento, donde
se establecen las estrategias y procedimientos
a seguir; (2) Registro y análisis de la petición,
que implica la identicación y evaluación de
las solicitudes de mantenimiento recibidas; (3)
Ejecución de la intervención, enfocada en la
resolución efectiva de los problemas detectados; y
(4) Migración y retirada del software, asegurando
la correcta implementación de cambios y la
eliminación de versiones obsoletas.
A. Definición del proceso de mantenimiento
En este proceso se definió claramente qué partes
del sistema serán objeto de mantenimiento y se
estableció los límites, incluyendo las áreas que no
serán cubiertas. Además, se estableció claramente
los roles de los equipos de mantenimiento
y desarrollo, asignando responsabilidades
específicas para cada etapa del proceso de
mantenimiento. Para la planificación y gestión
del trabajo. Se incluyó un cronograma detallado
con hitos y fechas límite para las actividades de
mantenimiento y la gestión del trabajo en sprints.
B. Registro y análisis de la petición
Para la identificación de problemas, se llevaron a
cabo entrevistas con dos gestores de Cotopaxi y
Tungurahua en varias reuniones independientes,
respectivamente. Durante estos encuentros, se
abordaron los inconvenientes detectados por los
mismos al utilizar el sistema. Los problemas se
documentan con el artefacto Informe de Problema
(IP) según las directrices de Ágil MANTEMA,
con sus respectivas pruebas de aceptación (PA) y
actividades de mantenimiento y gestión (AMG),
como se visualiza en la tabla IV.
C. Ejecución de la intervención
En este apartado se definió la especificación
de nuevos requisitos y modificaciones a los ya
existentes, se emplea el artefacto Solicitud de
Cambio (SC). Al igual que los IP, requieren de sus
respetivas PA y AMG (ver tabla V).
Tabla IV
Ejemplo del formato de informe de problema
INFORME DE PROBLEMA
ID: IP_01
Nombre del problema: Error en el enlace
de redirección hacia la página principal del
sistema.
Usuario: Usuarios del sistema Sprint: 2
Prioridad en el negocio: 2 Puntos estimados: 7
Riesgo en el desarrollo: 3 Puntos reales: 7
Descripción: Yo, como usuario, al tratar de regresar a la página
principal con el enlace destinado ("/home"), en lugar de redirigir
a la ruta raíz, lleva a la ruta "/". Este comportamiento no coincide
con la expectativa del usuario y genera confusión en la navegación.
Observación: Ninguna
Paso para reproducción:
1. Iniciar sesión en el sistema con credenciales válidas.
2. Clic sobre el botón home o ingresar a la ruta “/”.
3. Observar la falla generada.
ACTIVIDADES DE MANTENIMIENTO Y GESTIÓN
ID: AMG_09_IP_01
Nombre de la actividad: Análisis del error
al intentar acceder a la ruta principal del
sistema.
Responsable:
Pablo Guerra Tipo de actividad: Análisis
Descripción: Observar el error generado
al intentar redirigirse a la ruta principal del
sistema.
ID: AMG_10_IP_01
Nombre de la actividad: Diseño de la
solución técnica para la correcta redirección
del enlace.
Responsable:
Pablo Guerra Tipo de actividad: Diseño
Descripción: Diseñar la solución que corre-
girá el error cuando el usuario desee rediri-
girse a la ruta principal del sistema.
ID: AMG_10_IP_01
Nombre de la actividad: Implementación
de la solución técnica
Responsable:
Pablo Guerra
Tipo de actividad: Imple-
mentar solución
Descripción: Implementar la modificación
necesaria dentro del código para redirigir al
usuario a la ruta principal del sistema sin
ningún error.
PRUEBAS DE ACEPTACIÓN
ID: PA_01_ IP_01
Nombre de la prueba: Prueba de redirec-
ción a "/" correcta.
Criterio: Verificar que el usuario ahora
pueda redirigirse sin problema a la página
principal del sistema a través del botón
“Escritorio”
Responsable:
José López
Evaluación de la prueba:
Prueba Exitosa.
ID: PA_02_IP_01
Nombre de la prueba: Prueba de comporta-
miento al acceder directamente a "/”.
Criterio: Verificar que el usuario ahora pue-
da acceder sin problema a la página principal
del sistema a través del enlace directo en la
barra de búsqueda.
Responsable:
José López
Evaluación de la prueba:
Prueba Exitosa.
52
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Para llevar a cabo la medición de los tiempos de
estimación, se implementa el método T-Shirt que
consta de 5 tallas con sus correspondientes puntos
estimados y horas de trabajo. Es fundamental
considerar que 1 punto estimado equivale a 1 hora
de desarrollo utilizada por el equipo de trabajo, y
que 1 día de trabajo se corresponde con 7 horas de
desarrollo. Se desplegó el producto backlog, que
consiste en una lista priorizada de cada cambio
que se hizo al sistema de correspondencia de
CACTU. Esta lista está organizada a través de su
complejidad y puntos estimados, como se observa
en la tabla VI.
El estándar PSR-12, conocido como "Extended
Coding Style", estableció directrices especícas
para la codificación en PHP, mejorando
la legibilidad, comprensión, depuración y
modificación del código fuente. Esto contribuye
a reducir la complejidad del sistema y facilita
su mantenimiento. Para el diseño de las nuevas
interfaces de usuario requeridas durante el proceso
de mantenimiento, se utilizó la herramienta
Balsamiq en su versión gratuita, permitiendo el
desarrollo de prototipos claros y comprensibles,
adecuados para usuarios sin experiencia técnica.
La Figura 3 presenta un ejemplo de estos prototipos,
destacando su diseño intuitivo y accesible.
Tabla V
Formato de solicitud de cambio.
Tabla VI
Product Backlog
ID: PA_03_IP_01
Nombre de la prueba: Prueba de retroceso en
la navegación.
Criterio: Verificar que el usuario ahora pueda
redirigirse sin problema a la página principal
del sistema a través del botón “atrás”.
Responsable:
José López
Evaluación de la prueba:
Prueba Exitosa.
SOLICITUD DE CAMBIO
ID: SC_01 Nombre de la solicitud: Expansión del
módulo de registro de afiliados.
Usuario: Usuarios del sistema Sprint: 8
Prioridad en el negocio: 2 Puntos estimados: 14
Riesgo en el desarrollo: 3 Puntos reales: 14
Descripción: Yo, como usuario del sistema, solicito que dentro
del módulo de registro de afiliados se agreguen los campos
adicionales solicitados en las respectivas reuniones. Esta adición
facilitara un completo y ágil registro de todos los afiliados den-
tro del sistema.
Módulos intervenidos: Registro de afiliados
Cambios en la petición: Ninguno
Observación: Ninguna
ACTIVIDADES DE MANTENIMIENTO Y GESTIÓN
ID: AMG_54_
SC_01
Nombre de la actividad: Análisis de los
requisitos para la expansión del módulo de
registro de afiliados.
Responsable:
José López Tipo de actividad: Análisis
Descripción: Identificar los nuevos campos y
funcionalidades que se requieren en el módulo.
ID: AMG_55_
SC_01
Nombre de la actividad: Diseño de la arqui-
tectura de la expansión del módulo de registro
de afiliados.
Responsable:
José López Tipo de actividad: Diseño
Descripción: Diseñar la interfaz de usuario
para los nuevos campos y funcionalidades.
ID: AMG_56_
SC_01
Nombre de la actividad: Implementación
de la expansión del módulo de registro de
afiliados.
Responsable: Tipo de actividad: Imple-
mentar solución
Descripción: Implementar los nuevos cam-
pos y funcionalidades en el código fuente del
módulo.
PRUEBAS DE ACEPTACIÓN
ID: PA_28_
SC_01
Nombre de la prueba: Prueba de registro exi-
toso dentro de los nuevos campos añadidos.
Criterio: Verificar que los usuarios puedan
guardar información en los nuevos campos
agregados al módulo.
Responsable:
José López
Evaluación de la prueba:
Prueba Exitosa.
Épica Peticiones de modificación Compleji-
dad
Puntos
estimación
AMG_01 Análisis de la base de datos Media 14
AMG_02 Análisis de los módulos
afectados Baja 7
AMG_03 Identificación de problemas
de codificación Alta 28
AMG_04 Rediseño de base de datos Alta 28
AMG_05 Migración de rediseño de la
base de datos Baja 7
AMG_06 Implementación de nuevas
interfaces Baja 7
AMG_07 Pruebas de fiabilidad utilizan-
do Enlightn Baja 7
AMG_08 Pruebas de tolerancia a fallos
utilizando JMeter Muy Alta 56
Horas 154
IP_01
Error en el enlace de redirec-
ción hacia la página principal
del sistema.
Baja 7
IP_02 Error al enviar el enlace por
correo al niño afiliado Baja 7
IP_03
Vista defectuosa al momento
de escribir la ruta raíz en el
navegador.
Baja 7
IP_04 Problemas al realizar cambio
de contraseña de la cuenta. Baja 7
IP_05 Lentitud en la Ejecución de
Acciones del Sistema Media 14
IP_06
Error al hacer búsquedas
numéricas en el módulo de
afiliados
Media 14
IP_07
Error al intentar entrar al
módulo gestión de perfil de
usuario
Baja 7
53
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Adicionalmente, se implementaron diversas
modificaciones en la base de datos del sistema con
el fin de mejorar su eficiencia y fiabilidad. Estas
D. Migración y retirada del software
Durante esta etapa, se llevó a cabo la migración de
los datos existentes a la nueva base de datos y la
actualización del sistema, asegurando la integridad
y consistencia de la información a lo largo del
proceso. La migración fue cuidadosamente
planificada para minimizar la interrupción del
servicio, implementando procedimientos de
respaldo y validación que evitaron la pérdida
de datos críticos. Paralelamente, la retirada del
software anterior se ejecutó de manera gradual,
garantizando que todas las funcionalidades
del nuevo sistema estuvieran completamente
modificaciones incluyeron la normalización de
tablas, optimización de consultas y la creación de
índices, lo que incrementó el rendimiento de las
operaciones de búsqueda y recuperación de datos.
Asimismo, se añadieron nuevas tablas y campos
para soportar las funcionalidades recientemente
incorporadas en el sistema de correspondencia
(ver Figura 4).
Fig. 3: Diseño del prototipado de la pantalla
Fig. 4: Base de datos con nuevas tablas y campos
IP_08 Error al entrar al manual de
usuario Baja 7
IP_09 Error al intentar descargar lis-
tado PDFs de niños afiliados Baja 7
IP_10
La firma del usuario solo
puede ser cambiada por el
administrador
Baja 7
IP_11 Clase de Google Maps ex-
puesta en Código Baja 7
IP_12 Error al revertir migraciones
de la base de datos Media 14
IP_13 Error al ejecutar seeders Baja 7
IP_14 Problemas de rendimiento en
consultas SQL Media 14
IP_15
Variables de entorno expues-
tas en Código usando método
env()
Baja 7
IP_16 Rutas inaccesibles Baja 7
IP_17 Secciones de módulos con
funcionalidad repetidas Baja 7
IP_18 Código muerto y Código
comentado Baja 7
Horas 147
SC_01 Expansión del módulo de
registro de niños Alta 28
SC_02 Envío de Múltiples Cartas en
un Correo Media 14
SC_03 Registro de tutores Media 14
SC_04 Gestión de Respuestas de
Cartas Baja 7
SC_05 Autenticación en Dos Fac-
tores Media 14
SC_06 Integración de Modo Oscuro Baja 7
SC_07 Creación de Nuevos Roles Baja 7
SC_08
Generación de PDF de la
Ficha de Afiliación/Actualiza-
ción de datos
Baja 7
SC_09 Monitoreo de Gestores por
Comunidades Media 14
SC_10 Registro de Cantones por Pro-
vincia, Cantones y Parroquias Baja 7
SC_11 Creación de Registro de
Unidades Educativas Media 14
SC_12 Registro del domicilio del
niño Baja 7
SC_13 Adición de Miembros Fami-
liares Media 14
SC_14 Actualización Única de Infor-
mación Familiar Compartida Muy Alta 56
SC_15 Buzón Activo para Niños
Afiliados Baja 7
SC_16 Registro de Cuenta Bancaria
Propia del afiliado y tutor Media 14
SC_17 Notificaciones por WhatsApp Muy Alta 84
SC_18 Creación de Cartas Respuesta
por WhatsApp Alta 28
SC_19 Correcciones Ortográficas
Automáticas en Cartas Muy Alta 56
Horas 399
Total Horas 700
54
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
III. Metodología de investigación
La norma ISO/IEC 25010 establece un marco
estándar para evaluar la fiabilidad del software,
definiéndola como la capacidad del sistema
para mantener un desempeño especificado bajo
condiciones operativas establecidas. Para medir
la fiabilidad en el contexto del mantenimiento
correctivo siguiendo esta norma, el proceso incluye
varios pasos clave: a) Identificación de problemas
ocultos de código mediante herramientas como
Enlightn, para detectar vulnerabilidades que
podrían comprometer la estabilidad del software;
b) Cálculo de métricas de fiabilidad, utilizando el
análisis del Tiempo Medio entre Fallos (MTBF) y
el Tiempo Medio de Reparación (MTTR), lo que
permite una evaluación precisa de la frecuencia
y duración de las interrupciones del servicio;
c) Pruebas de estrés y carga, se puede utilizar
herramientas como JMeter, simulando condiciones
extremas de uso para evaluar la capacidad del
sistema de mantener su funcionalidad después de
la implementación de correcciones y d) Evaluación
de atributos de fiabilidad como la madurez,
disponibilidad, tolerancia a fallos y capacidad
de recuperación, para garantizar que el sistema
cumpla con los requisitos de calidad definidos en
la norma ISO/IEC 25010.
A. Identificación de problemas ocultos de código
Para identificar problemas ocultos en el código
del sistema, se utilizó la herramienta Enlightn,
la cual ejecutó 27 pruebas centradas en evaluar
la fiabilidad de aplicaciones desarrolladas en
Laravel. Este análisis permitió detectar 18
problemas que afectaban a 9 de los 14 módulos
del sistema, proporcionando una visión completa
operativas antes de desactivar la versión previa.
Este proceso incluyó la desactivación de módulos
obsoletos y la eliminación de componentes
no esenciales, con el fin de mitigar riesgos de
seguridad y optimizar la eficiencia del sistema.
La fase concluyó con pruebas para vericar la
funcionalidad del sistema tras la migración,
asegurando la continuidad del registro de niños y la
mensajería con patrocinadores, sin interrupciones
dentro del sistema CACTU.
de las deficiencias existentes y una base sólida
para el desarrollo de soluciones efectivas. Las
mejoras implementadas incluyeron técnicas de
refactorización, ingeniería inversa, reingeniería y
modernización del sistema, distribuidas a lo largo
de 13 sprints.
B. Cálculo de métricas MTBF y MTTR
Para este proceso se estableció un período de
un mes que permitió registrar los tiempos de
operación y contabilizar el número de fallos. El
análisis de los datos se logró codificando un script
empleando el lenguaje R para calcular el Tiempo
de operación (TO), Tiempo Medio de Reparación
(MTTR), Numero de fallas (NE), y Tiempo
Medio entre Fallas (MTBF). Los resultados
obtenidos para antes y después del mantenimiento
se detallan a continuación en la Tabla VII.
C. Pruebas de estrés y carga
Esta evaluación se centró en medir y analizar
la capacidad del sistema para mantener un
rendimiento constante bajo diferentes condiciones
de carga. Se diseñó un plan de pruebas
utilizando Apache JMeter, que recopiló datos
sobre los tiempos de respuesta y el estado de las
solicitudes HTTP (GET, POST, PUT y DELETE),
simulando un entorno de estrés continuo. Este
enfoque permitió obtener una visión precisa del
comportamiento del sistema a lo largo del tiempo.
La configuración del entorno de hardware y los
detalles del plan de pruebas se presentan en las
tablas VIII y IX.
Tabla VII
Medias estadísticas del grupo de datos pre y post mantenimiento
Variable Pre-Manteni-
miento
Post-Manteni-
miento
Tiempo medio entre fallos
(MTBF)
3.48 minutos /
falla
16.42 minutos
/ falla
Tiempo medio de reparación
(MTTR) 2.62 minutos 1.25 minutos
Numero promedio de fallos
(NE) 4.47 fallos 1.46 fallos
Tiempo Promedio de Opera-
ción (TO) 17.43 minutos 18.22 minutos
Lambda (1/MTBF) 0.28 fallas 0.06 fallas
55
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
IV. Resultados y Discusión
El análisis con la herramienta Enlightn identificó
varios problemas ocultos en el código del sistema,
proporcionando información clave para mejorar
su fiabilidad. Este proceso resultó en la generación
de 14 informes de problemas y 19 solicitudes de
cambio. La Figura 5 muestra los resultados de las
pruebas de fiabilidad, destacando que el 85% de los
casos fueron aprobados y el 15% fueron fallidos.
El cálculo de las métricas de fiabilidad, como
el Tiempo Medio entre Fallos (MTBF) y el
Tiempo Medio de Reparación (MTTR), most
mejoras significativas tras el mantenimiento. El
MTBF incrementó de 3.48 a 16.42 minutos, lo
que sugiere una mayor estabilidad del sistema
debido a intervalos más prolongados entre fallos.
Simultáneamente, el MTTR disminuyó de 2.62
a 1.25 minutos, indicando una recuperación más
rápida del sistema ante fallos. Además, el número
promedio de fallos (NE) se redujo de 4.47 a 1.46,
y el tiempo promedio de operación (TO) aumentó
ligeramente, reflejando un rendimiento más
consistente con menos interrupciones. La tasa
de fallos (Lambda) también disminuyó de 0.28 a
0.06, lo que reafirma una mejora en la fiabilidad
general del sistema y evidencia la efectividad de
las acciones correctivas implementadas.
El análisis de resultados muestra una mejora
significativa en la fiabilidad del sistema tras el
mantenimiento, evaluando las subcaracterísticas
de madurez, disponibilidad, tolerancia a fallos
D. Evaluación de atributos de fiabilidad
Para medir las subcaracterísticas de la fiabilidad,
se utilizó JMeter mediante pruebas de madurez,
disponibilidad, tolerancia a fallos y capacidad de
recuperación. Se ejecutaron múltiples solicitudes
simultáneas y se monitoreó el comportamiento
Tabla VIII
Configuración del entorno hardware.
Tabla IX
Rutas del sistema pre-mantenimiento y post-mantenimiento
Tabla X
Resultados de la subcaracterísticas de la fiabilidad
Plan de Prueba JMeter Entorno Hardware
Cantidad de usuarios:
100
Intervalo: 10 segundos
Duración: 20 minutos
Procesador Core i7
12th generación
32 GB RAM
No Descripción Tipo Pre-Manteni-
miento
Post-Manteni-
miento
1
Obtener
Página Prin-
cipal
GET /home /
2 Iniciar Sesión GET /login /login
3
Iniciar Se-
sión (Enviar
Datos)
POST /login /login
4Consultar
Usuarios GET /usuarios /users
5Crear Nuevo
Usuario GET /usuarios-nuevo /user/create
6Guardar
Usuario POST /usuarios-guardar /api/users
7Editar Usuario GET /usuarios-editar/
{id} /users/{id}/edit
8Eliminar
Usuario DELETE /usuarios-elimi-
nar/{id} /api/users/{id}
9Consultar
Niños GET /ninios /children
10 Consultar
Buzones GET /buzones /mailbox
11
Consultar
Buzón de
Niño
GET /niño-buzon/{id} /mailbox/{id_
child}
12 Crear Cartas
Nuevas POST /crear-cartas-nue-
vo /api/mails/answer
13 Cerrar Sesión POST / logout /logout
Subcaracterística Pre-Mantenimiento Post-Mantenimiento
Alcan-
zado Ponderación Alcanzado Ponderación
Madurez (25%)
Eficacia de eliminación
de defectos 0.00% 0.00% 100.00% 25.00%
Disponibilidad (25%)
Tiempo medio disponible 84.96% 21.24% 93.13% 23.28%
Tolerancia a fallos (25%)
Tiempo medio entre
fallas (MTBF) 17.40% 4.35% 82.10% 20.52%
Capacidad de recuperación (25%)
Tiempo de recuperación
promedio 38.16% 8.79% 80.00% 20.00%
TOTAL 100% 34.38 % 88.80%
del sistema en condiciones de uso continuo. Los
resultados obtenidos con JMeter permitieron
evaluar el desempeño del sistema en cada
subcaracterística. La Tabla X presenta los
porcentajes de cumplimiento y sus valores
ponderados.
Fig. 5: Resultados de pruebas de fiabilidad de Enlightn.
56
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
y capacidad de recuperación. La madurez,
medida a través de la eficacia en la eliminación
de defectos, pasó del 0% al 100%, reflejando una
corrección completa de los errores detectados, lo
que contribuyó a una mejora ponderada del 0%
al 25%. En cuanto a la disponibilidad, el tiempo
medio disponible aumentó de 84.96% a 93.13%,
incrementando su ponderación de 21.24% a
23.28%, lo que indica una mayor accesibilidad
del sistema tras las correcciones. La tolerancia
a fallos, representada por el Tiempo Medio
entre Fallos (MTBF), mejoró de un 17.40% a un
82.10%, con una ponderación que subió de 4.35%
a 20.52%, lo que sugiere intervalos más largos
sin fallos y una mayor resistencia del sistema. Por
último, la capacidad de recuperación, medida por
el tiempo de recuperación promedio, avanzó de un
38.16% a un 80%, aumentando su ponderación de
8.79% a 20.00%, evidenciando una recuperación
más rápida ante fallos. En conjunto, la evaluación
global de fiabilidad subió de 34.38% a 88.80%,
lo que confirma la efectividad del mantenimiento
correctivo en mejorar la estabilidad y el desempeño
del sistema en todas las subcaracterísticas
evaluadas. Estos resultados demuestran la eficacia
de las intervenciones realizadas y subrayan la
importancia de un mantenimiento bien planicado
y ejecutado en sistemas críticos que gestionan
ujos de trabajo esenciales. La figura 6 muestra
los valores de la fiabilidad antes descrita.
Fig. 6: Nivel de fiabilidad por subcaracterísticas
VI. Conclusiones
El mantenimiento correctivo implementado en el
sistema de correspondencia de la Organización
Comunitaria CACTU, utilizando la metodología
Ágil MANTEMA, demostró ser altamente eficaz
para mejorar la fiabilidad y funcionalidad del
sistema. Los resultados reflejaron un aumento de
[1] U. Kaur and G. Singh, “A Review on
Software Maintenance Issues and How
to Reduce Maintenance Efforts,” Int J
Comput Appl, vol. 118, no. 1, pp. 6–7,
2015, Accessed: Nov. 08, 2023. [Online].
Available: https://api.semanticscholar.org/
CorpusID:55976322.
[2] A. Kamei, S. Kim, and Y. Tanaka, "A
Software Maintenance Methodology: An
Approach Applied to Mitigate Software
Aging," in Proceedings of the 2020 IEEE
International Conference on Software
Maintenance and Evolution (ICSME),
Adelaide, Australia, Sept. 28 - Oct.
2, 2020, pp. 255-262. doi: 10.1109/
ICSME46990.2020.00032.
[3] A. Gokhale, S. Gallagher, and T. Tremblay,
"A Software Maintenance-Focused Process
and Supporting Toolset for Academic
Environments," 2020 IEEE International
Conference on Software Maintenance and
Evolution (ICSME), Adelaide, Australia,
pp. 357-362, Sept. 2020. DOI: 10.1109/
ICSME46990.2020.00042.
[4] E. Manotas, S. Yáñez, C. Lopera, and
M. Jaramillo, “Estudio del efecto de
la de pendencia en la estimación de la
confiabilidad de un sistema con dos modos
de falla concurrentes,” Dyna (Medellin), p.
30, 2008.
[5] S. A. R. Lopez, “Definición de una
VII. Referencias
la fiabilidad del 34.38% al 88.80%, con mejoras
significativas en el Tiempo Medio entre Fallos
(MTBF), que pasó de 3.48 a 16.42 minutos, y
una reducción del Tiempo Medio de Reparación
(MTTR), de 2.62 a 1.25 minutos. Además, el
análisis de las subcaracterísticas de fiabilidad
mostró incrementos considerables en la madurez,
disponibilidad, tolerancia a fallos y capacidad de
recuperación, lo que confirma la efectividad de la
metodología utilizada. Estos hallazgos subrayan
la importancia de un enfoque sistemático y
planificado para el mantenimiento de software en
entornos críticos, mejorando tanto la estabilidad
operativa como la capacidad de respuesta ante
fallos.
57
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
secuencia de refactorización que permite
mejorar la mantenibilidad minimizando el
impacto negativo a la eficiencia basados
en la medición de atributos de calidad
internos.,” Working papers Maestría en
Ingeniería de Sistemas, vol. 4, no. 1, Aug.
2019, doi: 10.15765/WPMIS.V4I1.1241.
[6] T. C. Gutiérrez, R. Martínez, K. Soto,
and J. R. Z. Morales, “REVISIÓN DE
LITERATURA DEL ERROR HUMANO
Y SU ESTUDIO EN LA INDUSTRIA Y
LOS SERVICIOS,” 2015.
[7] R. Pérez, F. Ruiz, I. Rodríguez, M. Polo, and
M. Piattini, Mantenimiento y Evolución de
Sistemas de información, 1ra ed. Madrid:
Grupo Editorial RA-MA, 2019.
[8] P. Pisco, M. Marcillo, J. Gutiérrez,
and J. Cedeño, “CONTROL DE
MANTENIMIENTO PREVENTIVO
EN COMPUTADORES A NIVEL DE
SOFTWARE,” UNESUM-Ciencias.
Revista Científica Multidisciplinaria. ISSN
2602-8166, vol. 4, no. 1, pp. 143–154,
May 2020, doi: 10.47230/UNESUM-
CIENCIAS.V4.N1.2020.213.
[9] M. F. Fernández, J. G. Ruiz, and R. Acosta,
Analizador de Ensamblados orientados a
objetos para el mantenimiento de software,
CULCyT, pp. 29–34, 2015.
[10] M. Polo, “MANTEMA: una metodología
paramantenimiento de software,”
Universidad de Castilla, La Mancha, 2000.
[11] M. M. Manhães, M. C. F. P. Emer, and L.
Bastos, “Classifying defects in software
maintenance to support decisions using
hierarchical ODC,” Anais do Computer on
the Beach, p. 290, 2014.
[12] F. J. Pino, F. Ruiz, J. Triñanes, and F. Garcia,
Agil_MANTEMA: Una Metodología de
Mantenimiento de Software para Pequeñas
Organizaciones,” 2008, Accessed: Jun. 08,
2024. [Online]. Available: https://www.
researchgate.net/publication/221595280
[13] F. Pino, F. Ruiz, and S. Salas, “Ágil Mantema
(Mejora de Procesos para Fomentar la
Competitividad de la Pequeña y Mediana
Industria del Software de Iberoamérica),
p. 13, 2008.
[14] ISO/IEC, “Systems and software
engineering - Software life cycle processes,
Art. no. ISO/IEC/IEEE 12207:2017, 2017.
[15] ISO/IEC, “System and Software Quality
Requirements and Evaluation,” 2011,
Accessed: Feb. 27, 2024. [Online].
Available: https://iso25000.com/index.php/
normas-iso-25000/iso-25010
[16] PHP Framework Intergroup, “Extended
Coding Style.” 2019. Accessed: Jun. 29,
2024. [Online]. Available: https://www.
php-fig.org/psr/psr-12/.
58
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
EL CAPITAL HUMANO DE LA INDUSTRIA DE
SOFTWARE EN SAN FRANCISCO DE CAMPECHE
1 Universidad Autónoma de Campeche.
2 Instituto Tecnológico Superior de Champotón.
San Francisco de Campeche, México.
RESUMEN ABSTRACT
Diana Concepción Mex Álvarez 1
Margarita Castillo Téllez 1
Yaqueline Pech Huh 2
José Luis Lira Turriza 2
diancmex@uacam.mx
mcastill@uacam.mx
ypech@itescam.edu.mx
jira@itescam.edu.mx
Luz María Hernández Cruz 1
Charlotte Monserrat Llanes Chiquini 1
lmhernan@uacam.mx
chmllane@uacam.mx
La gestión de recursos humanos es esencial en la
industria del software, ya que el capital humano
constituye su principal activo. Este trabajo tiene
como objetivo identificar las características clave
del capital humano en esta industria en San
Francisco de Campeche, destacando criterios de
contratación, estructura laboral y composición
educativa. La metodología incluye un instrumento
digitalizado en el portal Observatorio de la
Industria de Software, distribuido entre empresas
desarrolladoras de software con domicilio
fiscal en la ciudad. Los resultados de esta
publicación se enfocan en los indicadores de
capital humano, revelando una combinación
de empleados dependientes, independientes,
aprendices y temporales, lo que indica flexibilidad
y compromiso laboral. Predomina una formación
académica extensa, reforzando la importancia de
la educación en el sector. Las tasas de rotación
varían, reflejando distintos niveles de estabilidad
laboral. Las empresas valoran habilidades blandas
como responsabilidad, trabajo en equipo y
resolución de problemas.
Palabras Clave: Capital Humano, Industria,
Software, Gestión
Human resource management is essential in the
software industry, as human capital represents its
main asset. This study aims to identify the key
characteristics of human capital in this industry
in San Francisco de Campeche, focusing on
hiring criteria, labor structure, and educational
composition. The methodology involves a
digitalized instrument hosted on the Software
Industry Observatory web portal, distributed
among software development companies with a
fiscal address in the city. The results presented in
this publication focus on human capital indicators,
revealing a combination of dependent employees,
freelancers, apprentices, and temporary workers,
indicating labor flexibility and commitment.
Extensive academic education is predominant,
highlighting the importance of training in the
sector. Turnover rates vary across companies,
reflecting different levels of job stability.
Companies value soft skills such as responsibility,
teamwork, and problem-solving.
Keywords: Human Capital, Software, Industry,
Management
The Human Capital of the Software Industry in San Francisco
de Campeche
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
DOI: https://doi.org/10.47187/perspectivas.7.1.242
Fecha de Recepción: 15/02/2025. Fecha de Aceptación: 20/03/2025 Fecha de Publicación: 28/05/2025
59
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
I. Introducción
El colaborador de una organización es el elemento
más importante de una empresa, actualmente
se le denomina de diferentes maneras, dejando
atrás el concepto de empleado para denominarlos
talento humano, recursos o capital humano [1]. El
capital humano es el conjunto de conocimientos,
habilidades y aprendizajes con los que cuentan los
colaboradores de una organización [2]
La gestión efectiva de recursos humanos no solo
mejora el desempeño de los empleados, sino que
también eleva la rentabilidad general de la empresa.
[3] El desempeño laboral es denido como la
potencia importante en las fuerzas de trabajo del
empleado, para medir el desempeño se necesita
evaluarlo a través de indicadores de desempeño y
así determinar cn efectiva y eficiente es la labor
de los empleados, sin embargo, esa medición está
fuera del alcance de esta investigación. [4]
La información que se presenta en este trabajo
es resultado del proyecto de investigación
denominado “Diagnóstico de la situación actual
de la Industria de Software en San Francisco
de Campeche”, con el objetivo de estudiar la
condición en la que se encuentra la industria, para
ello se diseñó un instrumento con la finalidad de
recabar los principales indicadores que permitan
conocer las métricas empleadas. El instrumento
empleado se obtuvo de una revisión sistemática,
en el artículo "Propuesta de indicadores para
evaluar la industria de software de una región"
se encuentra el desarrollo de la metodología y los
resultados. El instrumento clasificó los indicadores
en siete categorías: organización, capital humano,
situación financiera, infraestructura, investigación,
innovación, desarrollo y tecnología, productos y
servicios, mercados, procesos empresariales, y
marketing y comunicación. [5] Debido a la cantidad
de indicadores que conforman el instrumento
de medición de la industria de software, los
resultados obtenidos se han presentado de manera
paulatina en diversas publicaciones, en el presente
trabajo solo nos enfocaremos a los indicadores de
la categoría de capital humano:
Tipo de contratación
Grado de estudios de los empleados
Grado de estudios de los programadores
Porcentaje de rotación de empleados
Criterios de contratación de personal más
importantes para las empresas
En las siguientes líneas describiremos la
importancia de cada indicador.
Conocer la condición contractual de los empleados
es crucial, debido a que un contrato bien definido
establece claramente las expectativas de cada
empleado en la empresa. A su vez las condiciones
contractuales como el salario, los bonos y
oportunidades de crecimiento, son factores para
atraer y retener talento. [6] Las condiciones
contractuales no solo son beneficiosas para el
personal sino también para la empresa, debido a
que evita problemas legales y multas, asegurando
que se respeten las leyes laborales y de propiedad
intelectual. [7] Por lo tanto, la condición
contractual beneficia tanto a los empleados, como
a la empresa, lo que genera un trabajo eficiente y
colaborativo que favorece el ambiente laboral y el
desarrollo competitivo.
Conocer el grado de estudios de los empleados es
fundamental para optimizar la gestión del talento,
fomentar el desarrollo profesional y asegurar que
los equipos estén equipados para enfrentar los
desafíos de un entorno tecnológico en constante
cambio. En este mismo orden de ideas, diversos
estudios han demostrado que el grado de estudios
del capital humano está relacionado con la
productividad, aunado a la posibilidad de generar
planes de capacitación y desarrollo profesional. [4]
Igualmente, la rotación de personal resulta
una característica importante en la vida de
las empresas, este concepto tiene diferentes
definiciones, para efectos de esta investigación
nos apegamos a la siguiente: “es la proporción
de empleados que sale de una compañía, en
determinado periodo, por lo general de un año
[8]. Debido a los costos generados cuando existe
rotación de personal como lo son: costos por
reclutamiento, costos de liquidación, costos en
las áreas donde se encontraban asignados, resulta
indispensable evaluar este factor que influye en
el crecimiento organizacional [9]. En términos
60
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
de retención de talentos, políticas adecuadas en
recursos humanos que promueven el desarrollo
profesional la satisfacción y compromiso de los
empleados, lo que reduce la rotación de personal
y permite retener a los talentos más valiosos [10].
Por último, se presentan los criterios de
contratación de personal más importantes para las
empresas, con la intensión de ofrecer información
para quienes deseen aspirar a un proceso de
contratación y con ello analizar las oportunidades
de ingreso a la industria.
Por lo tanto, analizar el capital humano,
aunque puede revelar deficiencias importantes,
también proporciona la oportunidad de
implementar soluciones que mejoren los procesos
administrativos y de gestión. Este enfoque integral
asegura que la gestión de recursos humanos no solo
aborde los desafíos operativos diarios, sino que
también contribuya a la estrategia de desarrollo a
largo plazo de la organización. [11].
La metodología para llevar a cabo este trabajo
comienza con la creación de un instrumento con
indicadores que permitan la medición de diferentes
categorías de la industria del software en la ciudad
de San Francisco de Campeche, dividiéndose en
tres etapas principales: Definición de indicadores,
construcción de instrumento y aplicación del
instrumento.
A. Definición de indicadores
El instrumento empleado se obtuvo de una revisión
sistemática, el desarrollo de la metodología y los
resultados, pueden ser consultados en el artículo
"Propuesta de indicadores para evaluar la industria
de software de una región” [5].
B. Construcción de instrumento
En la segunda etapa, se diseñaron cinco preguntas
con la finalidad de obtener los cinco indicadores
referentes al capital humano, dos fueron de tipo
cerrado y tres de tipo abierto.
II. Metodología
En la tabla 1 se presentan los indicadores, la
pregunta, el tipo y las opciones de respuesta que
permiten obtener los valores de cada uno.
C. Aplicación del instrumento
Para recolectar la información de las empresas
invitadas al proyecto de investigación, se
desarrolló un sistema de información web
denominado Observador Virtual, con las preguntas
digitalizadas y configuradas para obtener los
indicadores los detalles de la base de datos se
pueden consultar en el artículo denominado:
“Diseño de la base de datos para una aplicación
web utilizando MongoDB”.[12]
La aplicación del instrumento se realizó durante
el mes de marzo de 2022, donde participaron en
total cinco empresas, de un total de seis que tienen
Tabla 1
PREGUNTAS E INDICADORES
Indicador Tipo Pregunta Opciones
Empleados de
la industria de
software por
tipo de con-
trato
Abierta
Número total de
empleados por
tipo de contrato
Independientes
Dependientes
Aprendices/
Practicantes
Temporales
Grado de
estudios de los
empleados de
la industria de
software
Abierta Número total de
empleados según
nivel de estudios.
Educación básica
Educación Técnica
Licenciatura
Posgrado
Grado de
estudios de los
programadores
de la industria
de software
Abierta
Número de
programadores
por nivel
de estudio,
según tipo de
contratación
Educación Técnica
Licenciatura
Posgrado
Porcentaje de
rotación de
empleados
Cerrada
¿Cuál es el
porcentaje de
rotación de
empleados?
1% al 10%
11% al 20%
21% al 30%
31% al 40%
más del 41%
Criterios de
contratación de
personal más
importantes
para las em-
presas
Cerrada
¿Cuáles son los
cuatro criterios
de contratación
de personal más
importantes para
su empresa?
Experiencia
Certificaciones
Responsabilidad
Ganas de aprender
Habilidades para
trabajo en equipo
Habilidades para
la resolución de
problemas
Innovador
Receptivo
Organizado en sus
tiempos
61
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
su domicilio fiscal en la ciudad de San Francisco
de Campeche de acuerdo con los registros de la
Secretaría de Desarrollo Económico del Gobierno
del Estado de Campeche. Del total de empresas
desarrolladoras de software tres pertenecen
al clúster de tecnologías de información y
comunicaciones denominado Ah-Kin-Tech y otras
tres que no pertenecen a ninguna organización. El
instrumento se diseñó para que sea resuelto por
personal de alta dirección, por lo que de acuerdo
con la disponibilidad de los gerentes se logró
aplicar el instrumento a cinco de ellas.
Para que las empresas encuestadas puedan ser
identicadas por el sistema, se registraron a las
entidades con el nombre, teléfono de contacto y
correo electrónico. En la figura 1 se muestra la
ventana de registro. Considerando el 100% al total de los empleados
manifestados las empresas desarrolladoras
encuestadas, los resultados obtenidos arrojaron
que el 62.00%, tienen una relación contractual
formal (sueldo fijo y prestaciones sociales), a
quienes denominamos dependientes, lo que sugiere
una relación laboral estable y comprometida.
Por otro lado, el 25.3% de los empleados son
independientes, quienes operan en la modalidad
denominada outsourcing. En términos de vínculo
con las instituciones educativas, los aprendices
y practicantes que se encuentran prestando
algún tipo de servicio representan un 6.02%. Por
último, un porcentaje igual al 6.02%, corresponde
a empleados temporales, evidenciando una
estrategia de contratación por tiempo determinado,
la cual se adaptada a las necesidades específicas
de estas empresas. En la figura 4 se presenta la
gráfica donde se aprecia el porcentaje empleados
por tipo de contratación
En la figura 3, se puede observar la parte de
la digitalización del instrumento que recaba
información sobre el capital humano.
Una vez registrada la entidad se genera un
TOKEN que estará activo hasta que sea finalizada
la encuesta.
Para el llenado del instrumento se les proporcionó el
enlace del Observatorio Virtual, el cual ya contenía
el registro de cada una de ellas. En la figura 2, se
muestra la interfaz de acceso al instrumento.
Fig. 1. Interfaz del registro de las empresas desarrolladoras en el
sistema web Observatorio Virtual. Fuente: Elaboración propia.
Fig. 3. Interfaz del instrumento en el sistema web Observatorio
Virtual. Fuente: Elaboración propia.
Fig. 2. nterfaz para el ingreso de las empresas desarrolladoras a la encuesta
del sistema web Observatorio Virtual. Fuente: Elaboración propia.
Fig. 4. Porcentaje de empleados de la industria de software según
tipo de contratación. Fuente: Elaboración propia
III. Resultados
62
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
En la industria de software de San Francisco de
Campeche, no hay empleados que cuenten sólo con
educación básica, el 8.0 % de los empleados posee
hasta educación técnica y el 85.33%, cuenta con
el máximo grado de estudios a nivel licenciatura,
indicando una preferencia por perfiles preparados
académicamente, lo que contribuye a identificar
otro criterio de contratación. Por último, es
destacable que el 6.67 % de los empleados tiene
como m nivel educativo de posgrado, por lo que da
un valor agregado a las competencias profesionales
de la industria. La distribución de los empleados
que desempeñan actividades administrativas o
gerenciales, según su máximo grado de estudios,
se presenta en la figura 5.
La figura 7 muestra el porcentaje de rotación
de empleados de las empresas encuestadas, por
segmento. Observamos que 3 de las empresas
manifiesta tener un porcentaje de rotación
(la proporción de empleados que sale de una
compañía, en determinado periodo, por lo general
de un año) entre el 1% y el 10%, una de ellas entre
el 21% y el 30%; y por último una con porcentaje
mayor al 40%.
La figura 6 muestra la gráfica del máximo grado
de estudios que poseen el total de programadores
registrados por las empresas encuestadas. El 6.52%
tiene la educación técnica como mayor grado de
estudios, y el 91.30%, posee como mayor grado
de estudios la licenciatura. Además, el 2.17%
de los programadores tiene como mayor grado
de estudios el posgrado. Los datos presentados
complementan el tipo de perfil solicitado para el
ingreso laboral en este sector.
Los criterios más importantes de contratación
del personal de las empresas desarrolladoras se
presentan en la figura 8. Los resultados arrojan que
ninguna empresa considera dentro de sus criterios
de contratación la habilidad de la percepción, así
como la experiencia y las certificaciones. En el
caso de los criterios: organizado en sus tiempos
y responsabilidad, son considerados por al menos
una empresa. Mientras la resolución de problemas
es un criterio que 3 de las empresas consideran
importante en la selección de personal. Los
criterios que resultaron ser esenciales para las 5
empresas encuestadas fueron las ganas de aprender
y las habilidades para el trabajo en equipo.
Fig. 5. Porcentaje de empleados según su mayor grado de estudios.
Fuente: Elaboración propia
Fig. 7. Porcentaje de rotación de empleados. Fuente: Elaboración
propia.
Fig. 6. Grado de estudios de los programadores de la industria de
software. Fuente: Elaboración propia.
Fig. 8. Porcentaje de empresas según la importancia de sus criterios
en la contratación de personal. Fuente: Elaboración propia.
63
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
El tipo de relación contractual en la industria de
software es fundamental para el desempeño y la
competitividad de las empresas desarrolladoras. La
adaptación a un entorno de mercado en constante
cambio es clave en la industria de software, esto ha
llevado a las empresas a buscar un balance entre
las modalidades de contratación y de esta manera
maximizar su desempeño y competitividad en
el sector. Cada modalidad contractual tiene
sus propias características y repercusiones en
el funcionamiento y la gestión del talento. Lo
que podemos observar es que la mayoría de los
empleados en las empresas desarrolladoras de San
Francisco de Campeche, están bajo una relación
contractual formal, lo que representa una relación
más estable y comprometida.
El grado de estudios de los empleados que
desempeñan actividades administrativas o
gerenciales, así como de los programadores, no
solo afecta la calidad del trabajo que produce la
industria de software, sino que también inuye
en la cultura, la innovación y la adaptabilidad
de la empresa. En los resultados observamos
que la industria de Software de San Francisco
de Campeche cuenta con personal con licencia
profesional que muchas veces está correlacionado
con la capacidad de resolver problemas y con
una cultura de capacitación y desarrollo continuo
que se refleja en los porcentajes que han alcanzo
estudios de posgrado.
El índice de rotación aceptable fluctúa entre
un 5% a 15%, por lo tanto, podemos concluir
que tres de las empresas se encuentra en estado
conveniente, sin embargo, que una empresa
tenga el 0% de rotación no es tan conveniente,
pues indica estancamiento [13]. Por otro lado, las
empresas que se encuentran entre el 21% y el 30%
y con porcentaje mayor al 40%, es conveniente
evalúe los factores que lo están produciendo,
para abordarlos con estrategias que permita
mejorar las condiciones, debido a que la rotación
de personal puede representarles incremento de
costos, de reclutamiento, selección, integración
y capacitación de personal; impidiendo además
cumplir con sus metas.
IV. Discusiones
V. Conclusión
La definición de criterios de contratación permite
a las empresas evaluar a los candidatos de manera
más objetiva, asegurando que incorporan a
personas que no solo tienen los conocimientos
necesarios, sino también los valores y la mentalidad
que se ajustan a su cultura organizacional. Este
ejercicio también permite a los egresados de las
áreas afines a la industria, entender los criterios
de contratación y alinear sus competencias con
las expectativas del mercado. Observamos que las
habilidades blandas como el trabajo en equipo, las
ganas de aprender y la resolución de problemas
son elementales para estos puestos.
A través del estudio especíco realizado, se
ha podido observar una notable diversidad
en los enfoques de contratación y estructuras
laborales flexibles, que reflejan la adaptabilidad
y la capacidad de respuesta del sector frente
a las dinámicas del mercado tecnológico. La
preferencia por perfiles académicos extensos,
observada en las empresas de la región, sugiere que
la educación continua y el desarrollo profesional
son percibidos como impulsores cruciales para el
avance tecnológico y la innovación en el ámbito
del software. Esta orientación hacia la formación
intensiva debe ser un área de enfoque para políticas
futuras, asegurando que la fuerza laboral no solo
se expanda en cantidad sino también en calidad.
Además, la variabilidad observada en las tasas
de rotación de empleados resalta un área crítica
de intervención: la retención de talento. Deberían
adoptarse políticas que no solo atraigan a los
profesionales al sector, sino que también los
motiven a permanecer dentro de las empresas a
largo plazo. Esto podría incluir mejores prácticas
en ambiente laboral, oportunidades de crecimiento
profesional y reconocimiento de logros. A futuro,
sería provechoso realizar estudios que exploren
los efectos a largo plazo. Estos estudios podrían
ofrecer perspectivas adicionales sobre cómo las
políticas de recursos humanos y las normativas
de calidad se interrelacionan con el crecimiento
económico regional y el desarrollo del sector
tecnológico.
64
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Se espera que los recién egresados al conocer
qué buscan los empleadores, puedan destacar las
experiencias y logros relevantes en sus currículos
y entrevistas, aumentando así sus posibilidades de
éxito en el proceso de selección.
VI. Agradecimientos
Agradecemos a la Secretaría de Educación del
Gobierno de México, a través de la Dirección
General de Educación Universitaria recurso
otorgado para la realización del presente trabajo,
con el Programa para el desarrollo profesional
docente, tipo superior, Fortalecimiento de Cuerpos
Académicos.
[1] Chiavenato,I.(2008) Gestión del Talento
Humano. México: McGraw.Hill
[2] Smith, Adam (1776), Investigación de la
naturaleza y causas de la riqueza de las
naciones, Alianza, Madrid.
[3] Salgar, J., & Tello Escobar, M. A. (2018).
Propuesta de un modelo para la asignación
de recursos humanos a los proyectos a
cargo de la oficina de gestión de proyectos
(PMO) de coomeva a nivel corporativo.
Recuperado de https://api.semanticscholar.
org/CorpusID:165173300
[4] Bernal González, I., Pedraza Melo, N. A.,
& Castillo Hernández, L. (2020). El capital
humano y su relación con el desempeño
organizacional. Revista ESPACIOS. ISSN,
798, 1015.
[5] Mex Alvarez, D. C., Manzanilla Yeh, E. J.,
Hernández Cruz, L. M., Cab Chan, J. R. y
Ortiz Cuevas, N. G. (2021). Propuesta de
indicadores para evaluar la industria de
software de una región. Revista Electrónica
sobre Cuerpos Académicos y Grupos de
Investigación, 8(16).
[6] Salinas, E. (2022). El régimen de
contratación y su relación con el nivel de
desempeño. [Tesis Posgrado, Universidad
César Vallejo], Lima, Perú. shorturl.at/
esLRV.
[7] Mariño, E. (2018). Beneficios laborales y
los estados financieros en las empresas de
VII. Referencias
transportes en el distrito de Santa Anita,
año 2018. [Tesis grado, Universidad Cesar
Vallejo], Lima, Perú. shorturl.at/ftKQ1.
[8] Davis K., Newstron W. (2002).
Comportamiento Humano en el trabajo.
Editorial Mc Graw Hill. Undécima edición.
[9] Alvarez Orozco, Dolores Guadalupe.
(2020). ROTACIÓN DE PERSONAL ¿Qué
es y cómo combatirla?.
[10] García, A., Martínez, E., & Ramírez, J.
(2017). Normas de calidad y su impacto
en el desarrollo de software. Revista
Internacional de Sistemas Informáticos,
10(2), 45-53.
[11] Montes, S. B., Busquets, M., & Pascual, L.
(2018). La gestión de los recursos humanos
en los ayuntamientos de la provincia de
Barcelona: análisis de los principales
retos y oportunidades. In La gestión de los
recursos humanos en los ayuntamientos de
la provincia de Barcelona: análisis de los
principales retos y oportunidades (pp. 1-14).
Recuperado de: https://dialnet.unirioja.es/
servlet/articulo?codigo=6748832
[12] “Diseño de la base de datos para una
aplicación web utilizando MongoDB”. José
Ramón Cab Chan †*, Luz María Hernández
Cruz, Diana Concepción Mex Álvarez
y Jorge Eduardo Espadas. Pérez Revista
Proyectos Institucionales y de Vinculación.
Año IX, N° 18 Julio-diciembre 2021.
ISSN:2395 – 9029. pp 69 – 76.
[13] Martínez, P., Mendizábal, E. (2001).
Influencia del clima laboral sobre la rotación
de personal en una empresa de la iniciativa
privada. 13 de febrero 2016. Recuperado
de: http://132.248.9.195/pd2001/289467/
Index.html
65
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
METODOLOGÍA PARA MEDIR LA FUNCIÓN DE
TRANSFERENCIA EN TIEMPO REAL DE SISTEMAS
DINÁMICOS EN OPERACIÓN
1 Facultad de Ciencias de la Computación, Benemérita Universidad Autónoma de Puebla, México.
2 Facultad de Matemáticas, Universidad Autónoma de Yucatán, México.
RESUMEN ABSTRACT
Carlos García Díaz 1
Ana Claudia Zenteno Vázquez 1
Raúl Antonio Aguilar Vera 2
Gustavo Trinidad Rubín Linares 1
carlos.garciadiad@alumno.buap.mx
ana.zenteno@correo.buap.mx
gustavo.rubin@correo.buap.mx
avera@correo.uady.mx
María del Carmen Santiago Díaz 1
Judith Pérez Marcial 1
marycarmen.santiago@correo.buap.mx
judith.perez@correo.buap.mx
Este artículo presenta una metodología sólida
para poder medir la función de transferencia de
un sistema dinámico en operación mediante la
aplicación de una señal delta como entrada. La
respuesta impulsiva de los sistemas se analiza en
el dominio de Laplace, así permitiéndonos obtener
información clave sobre su comportamiento,
estabilidad y desempeño. Se propone un enfoque
comparativo entre la función de transferencia
nominal y su medida para detectar los fallos o
deficiencias, evaluando las métricas como lo son
el margen de ganancia y fase. Además, se utiliza
un análisis en el dominio de la frecuencia para
poder identificar las alteraciones en la dinámica
del sistema. Esta metodología resulta útil para
realizar el diagnóstico y mantenimiento de
sistemas de control, mejorando su confiabilidad
y robustez ante las variaciones operativas y fallos
estructurales del sistema.
Palabras Clave: Función de Transferencia,
Sistemas Dinámicos, Señal Delta, Respuesta
Impulsiva, Análisis en Frecuencia, Estabilidad del
Sistema, Diagnóstico de Fallos, Control Robusto,
Identificación de Sistemas, Perturbaciones
This paper presents a robust methodology to
measure the transfer function of a dynamic system
in operation by applying a delta signal as input.
The impulse response of the systems is analyzed
in the Laplace domain, thus allowing us to obtain
key information about their behavior, stability, and
performance. A comparative approach is proposed
between the nominal transfer function and its
measurement to detect faults or deficiencies,
evaluating metrics such as gain margin and phase.
In addition, a frequency domain analysis is used
to identify alterations in the system dynamics.
This methodology is useful for diagnosing and
maintaining control systems, improving their
reliability and robustness against operational
variations and structural failures of the system.
Keywords: Transfer Function, Dynamic Systems,
Delta Signal, Impulse Response, Frequency
Analysis, System Stability, Fault Diagnosis, Robust
Control, System Identification, Disturbances
Methodology for Measuring the Real-Time Transfer Function of
Dynamic Systems in Operation
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
DOI: https://doi.org/10.47187/perspectivas.7.1.241
Fecha de Recepción: 15/02/2025. Fecha de Aceptación: 20/03/2025 Fecha de Publicación: 28/05/2025
66
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
I. Introducción
En el campo de la ingeniería de control y la
teoría de sistemas computacionales, la función
de transferencia es una de las herramientas
primordiales para poder modelar y analizar el
comportamiento dinámico de sistemas lineales e
invariantes en el tiempo. Esta es la representación
matemática, que relaciona la entrada y la salida
de un sistema en el dominio de la frecuencia,
permitiendo a los ingenieros predecir la
respuesta del sistema ante diversos estímulos y
así poder diseñar estrategias de control eficientes
[1].
Sin embargo, uno de los principales desafíos en la
práctica es la presencia de diversas perturbaciones
externas o internas, las cuales pueden alterar
de manera significativa el comportamiento del
sistema y, por lo consiguiente, la precisión del
modelo basado en la función de transferencia [2].
Las perturbaciones, ya sean de origen ambiental,
instrumental o inherentes al proceso, agregan
cierta incertidumbre en el sistema, lo que nos
puede llevar a diversas discrepancias entre el
modelo teórico y el comportamiento real del
sistema.
Este fenómeno es particularmente crítico en
aplicaciones donde se requiere mucha precisión
debido a que son aplicaciones de alto riesgo, como
por ejemplo el control de aeronaves, sistemas de
energía o procesos industriales complejos, donde
incluso pequeñas desviaciones pueden tener
consecuencias significativas [3]. El comprender
cómo las perturbaciones afectan la función de
transferencia y, en consecuencia, el modelo del
sistema es un problema de gran relevancia tanto
teórica como práctica [4].
En diversos artículos de investigación, se han
propuesto diversas metodologías para abordar
este desafío, desde técnicas de robustez y control
adaptativo hasta algunos enfoques basados en la
identificación de sistemas en presencia de ruido.
Por ejemplo, en algunos artículos se analiza el
impacto de perturbaciones estocásticas en la
estabilidad de sistemas lineales [6], mientras
en otros se propone un método para compensar
perturbaciones en sistemas no lineales utilizando
controladores sumamente más robustos [7].
Nuestro arculo busca contribuir a cerrar esta
brecha mediante un análisis sistemático de los
efectos de las perturbaciones en la función de
transferencias y su inuencia en la precisión y
confiabilidad del modelo.
El objetivo principal de este trabajo es investigar
cómo la introducción de las perturbaciones en
un sistema altera su función de transferencia y,
en consecuencia, su modelo dinámico. Para esto,
se propone un marco teórico que nos permite
cuantificar estos cambios y se representan
estudios de caso que ilustran la magnitud de
las desviaciones en diversos escenarios. Los
resultados obtenidos no solo nos enriquecen
en la comprensión teórica del problema, sino
que también proporcionan más herramientas
prácticas para el diseño de sistemas de control
más robustos y resilientes.
La función de transferencia es una de las
herramientas matemáticas más fundamentales en
la teoría de control y sistemas dinámicos. En donde
se representa la relación entre la entrada y la salida
de un sistema lineal e invariante en el tiempo (LTI)
en el dominio de la frecuencia. Para un sistema
continuo, la función de transferencia G(s) se define
como el cociente entre la transformada de Laplace
de la salida Y(s) y la transformada de Laplace de
la entrada U(s), bajo la suposición de condiciones
iniciales nulas [1]:
En la Ec. 1. Podemos observar que la
representación es particularmente útil debido a
que nos permite analizar las propiedades clave
del sistema, como la estabilidad, la respuesta
transitoria y la respuesta en frecuencia, sin
necesidad de resolver ecuaciones diferenciales
en el dominio del tiempo [2]. Además, la
función de transferencia nos facilita el diseño
II. Marco Teórico
(1)G (s) = Y (s)
U (s)
67
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
de controladores mediante técnicas como el
lugar geométrico de las raíces y el análisis de
Bode [3].
Sin embargo, la función de transferencia
tiene algunas limitaciones inherentes.
Particularmente, asume que el sistema es
lineal, invariante en el tiempo y no está sujeto
a perturbaciones externas o internas. Estas
suposiciones se cumplen rara vez en aplicaciones
prácticas, lo que nos lleva a una discrepancia
entre el modelo teórico y el comportamiento
real del sistema [4].
Las perturbaciones son señales no deseadas que
afectan principalmente el comportamiento de
un sistema dinámico. Es posible clasificarlas
en dos categorías principales: perturbaciones
determinísticas y perturbaciones estocásticas.
Donde las perturbaciones determisticas
son señales predecibles que son posibles de
modelarse matemáticamente, algunos ejemplos
comunes incluyen señales escalón, rampa y
sinusoidal. Estas perturbaciones suelen estar
asociadas a cambios abruptos en las condiciones
de operación, como variaciones en la carga de
un motor o fluctuaciones en la temperatura de
un proceso industrial [5].
Las perturbaciones estocásticas son señales
aleatorias que no son posibles de predecir con
certeza, por ejemplo, el ruido blanco, ruido
térmico y las vibraciones aleatorias. Estas
perturbaciones son particularmente desafiantes
debido a que requieren técnicas avanzadas de
modelado y control, como el filtrado de Kalman
o el control robusto [6].
Las perturbaciones pueden afectar al sistema de
diversas maneras. En primer lugar, es posible
que puedan alterar la función de transferencia
efectiva de nuestro sistema, lo que lleva a un
comportamiento impredecible. En segundo
lugar, pueden excitar modos no modelados del
sistema, lo que puede resultar en inestabilidad
o en la degradación del desempeño [7]. Por
último, las perturbaciones pueden introducir
errores en la medición de la salida del sistema,
lo que nos complica el diseño de las estrategias
del control basadas en la retroalimentación [8].
Una de las propiedades críticas en el diseño de
los sistemas de control es la robustez. Donde
hacemos referencia a la capacidad de un sistema
para mantener su desempeño ante la presencia
de diversas incertidumbres y perturbaciones.
Dentro del contexto de la función de
transferencia, la robustez se evalúa mediante
las siguientes métricas como es el margen de
ganancia y el margen de fase, los cuales indican
cuánto puede variar el sistema antes de volverse
inestable [9].
El margen de ganancia es el factor por el cual se
puede multiplicar la ganancia del sistema antes
de que este llegue a ser inestable. Un margen
de ganancia alto indica que el sistema puede
tolerar grandes variaciones en la ganancia sin
perder estabilidad. Mientras que el margen de
fase es el ángulo de fase adicional que se puede
agregar al sistema antes de que este se vuelva
inestable.
Un margen de fase alto nos indica que el sistema
puede tolerar retardos o desfases sin perder
estabilidad. Ades de que ya tenemos estas
métricas clásicas, se han desarrollado técnicas
avanzadas para evaluar la robustez, como el
análisis de valores singulares y la síntesis H.
Estas técnicas nos permiten realizar el diseño
de controladores que garanticen un desempeño
aceptable incluso en presencia de perturbaciones
e incertidumbres [10].
Cuando los sistemas están sujetos a
perturbaciones, su función de transferencia
efectiva puede verse alterada de manera
significativa. Por ejemplo, las perturbaciones
aditivas en la entrada de los sistemas modifican
la relación entrada-salida, lo que nos da como
resultado una función de transferencia aparente
(s) diferente del nominal G (s). Este cambio
puede llevar a ciertos errores en la predicción
del comportamiento del sistema y, en algunos
casos extremos, a la inestabilidad del sistema
[11].
68
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Tabla 1
TÉCNICAS DE MITIGACIÓN DE PERTURBACIONES
Técnicas de
Mitigación Descripción
Control
Adaptativo
Esta técnica ajusta los parámetros del controla-
dor en tiempo real para compensar las pertur-
baciones y variaciones en el sistema.
Filtrado de
Perturbaciones
Utiliza filtros (por ejemplo, el filtro de Kal-
man) para estimar y eliminar las perturbacio-
nes de la señal de control.
Control Robusto
Aquí se diseñan controladores los cuales garan-
tizan el desempeño aceptable incluso en pre-
sencia de perturbaciones e incertidumbres.
Identificación de
Sistemas
Utiliza datos experimentales para estimar la
función de transferencia del sistema en pre-
sencia de perturbaciones. Esta técnica es útil
cuando el modelo teórico del sistema no es
preciso.
Además, las perturbaciones pueden llegar a afectar
los polos y ceros de la función de transferencia,
modificando así la respuesta en frecuencia del
sistema. Lo cual es particularmente crítico en
sistemas de control de retroalimentación, donde
pequeños cambios en la función de transferencia
pueden amplificarse y llevar a oscilaciones o
divergencias [12].
Para abordar el problema de las perturbaciones
en los sistemas de control, se han desarrollado
diversas técnicas, en las cuales destacan las que se
listan en la tabla 1:
Estas técnicas nos han demostrado ser efectivas en
una amplia gama de aplicaciones, desde sistemas
control de vuelo hasta procesos industriales
complejos.
La medición de la función de transferencia en
un sistema dinámico en operación, se lleva a
cabo aplicando una señal delta de Dirac δ(t) en la
entrada al sistema. La delta δ(t) tiene propiedades
que la hacen ideal para el análisis de la respuesta
de un sistema. En su dominio de la frecuencia, la
transformada de Laplace de una δ(t) es igual a 1, lo
que ades de simplificar el análisis de sistemas
lineales e invariantes en el tiempo (LTI), nos
permite someter a un sistema simultáneamente
a un numero infinito de señales de prueba
simultáneamente.
III. Metodología
Como se muestra en la ecuación 1, un sistema en
el dominio de Laplace, es un sistema representado
por su función de transferencia nominal, donde:
G(s) es la función de transferencia del sistema,
Y(s) es la transformada de Laplace de la salida
y(t),
U(s) es la transformada de Laplace de la entrada
u(t).
ya que al aplicar la señal delta δ(t) al sistema,
su transformada de Laplace es U(s) = 1, lo que
nos permite hacer mediciones directamente a la
respuesta impulsiva del sistema. Por lo tanto, la
salida del sistema en el dominio de Laplace será:
Al momento de aplicar la transformada inversa de
Laplace a Y(s), obtenemos la respuesta impulsiva
del sistema en el dominio del tiempo, y(t). De ésta
forma obtenemos la información clave sobre el
comportamiento del sistema:
Polos y ceros la cual determinan la estabilidad
y dinámica del sistema,
Tiempo de asentamiento o estado estacionario,
Respuesta transitoria.
Para poder evaluar fallo o deficiencias en el
sistema, se introduce un análisis comparativo entre
la función de transferencia nominal y la función
de transferencia medida. Donde la desviación
que encontremos entre estas dos funciones puede
modelarse como en la ecuación 4.
Donde indica las alteraciones causadas por
perturbaciones, fallos o degradaciones en el
sistema. Si en la ecuación 4. obtenemos una
gran magnitud puede ser indicativa de fallos
significativos.
(2)
Y(s)=G(s)∙U(s)=G(s)
(3)
y(t)=L-1 [G(s)]
(4)
G(s)=Greal (s)-Gnominal (s)
(5)
|Greal (jw)| - |Gnominal (jw)|
∠Greal ( j w) -∠G nominal (jw)
69
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
La ecuación 5, nos muestra las diferencias que
pueden revelar frecuencias donde el sistema tiene
ciertos problemas de resonancia, amortiguamiento
insuficiente o degradación.
Las métricas de desempeño nos permiten evaluar
si el sistema cumple con los requisitos esperados
en termino de estabilidad, robustez y capacidad de
respuesta. Estas métricas se extraen del análisis
de la función de transferencia y su respuesta
impulsiva o en frecuencia.
El margen de ganancia mide la robustez del
sistema frente a incrementos de ganancia antes de
que el sistema llegue a ser inestable. Evaluamos en
la frecuencia de cruce de fase (ωϕ), denida como
la frecuencia donde nuestra fae de la función de
transferencia alcanza -180°:
Interpretando la ecuación 6 de la siguiente manera:
Si Gm >1 , nos dice que el sistema es robusto a
incrementos de ganancia.
Si Gm ≈1, interpretamos que el sistema está al
borde de la inestabilidad.
Si Gm <1, quiere decir que el sistema es
inestable.
Nuestro margen de fase nos llega a indicar la
cantidad de fase adiciones que se puede perder
antes de que el sistema llegue a ser inestable. En
donde medimos la frecuencia de cruce de ganancia
(ωg), que es la frecuencia donde |G()| = 1:
Interpretando la ecuación 7, observaremos que:
Un ϕm> 30° nos asegura un buen amortiguamiento
y estabilidad.
Si ϕm ≈ 0° nuestro sistema está cerca de ser
inestable.
Mientras que ϕm < 0° nos indica inestabilidad.
(6)Gm = 1
|G(ϕ)|
(9)
Ts 4
(ζωn)
(7)
ϕm = 180° + ∠G(g)
(10)
Y (s) = G(s)U(s) + D(s)
(8)
1
BW={ω: | G()| ≥ .|G(0)|}
La banda de paso es posible definirla como el
rango de frecuencias donde el sistema responde
adecuadamente (por ejemplo, cuando la ganancia
permanece por encima de un nivel definido como
-3dB respecto a su ganancia máxima):
Al interpretar la ecuación 8, interpretamos que si
obtenemos una banda de paso más amplia implica
que el sistema puede llegar a manejar señales
de mayor frecuencia sin ninguna atenuación
significativa. Como también interpretamos que,
si el BW es muy estrecho, nos puede indicar las
deficiencias en la velocidad de respuesta.
Nuestro tiempo de establecimiento mide cuánto
tarda la respuesta del sistema en permanecer
dentro de un margen especifico (2% o 5%) del
valor final tras una perturbación.
Para los sistemas de segundo orden, podemos
realizar la siguiente estimación como se muestra
en la ecuación 9,
Donde:
ζ es el coeficiente de amortiguamiento.
ωn es la frecuencia natural del sistema.
Aplicado en sistemas reales, las perturbaciones
externas (d(y)) o internas (n(t)) afectan de manera
signicativa el desempeño del sistema. Realizando
un análisis más detallado, las perturbaciones se
modelan como señales adicionales en el sistema:
El sistema con perturbaciones puede representarse
como se muestra en la ecuación 10, donde:
Y(s) es la salida tota,
G(s) es la función de transferencia del sistema,
U(s) es la entrada de control,
D(s) es la transformada de Laplace de la
perturbación.
70
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Si las perturbaciones llegan a afectar la salida, la
función de transferencia efectiva del sistema se ve
modificada.
Para poder aislar el efecto de las perturbaciones,
se llega a emplear la superposición lineal:
Donde interpretamos ecuación 11, de la siguiente
forma:
Ycontrol (s) = G(s)U(s)
Yperturbación (s) = D(s)
La perturbación puede identificarse y filtrarse con
técnicas de control adaptativo.
Para el dominio de la frecuencia, analizamos las
perturbaciones en función de su espectro. Donde
las perturbaciones D(s) pueden modelarse como
ruido blanco o señales sinusoidales de una baja
frecuencia (1/f):
En la ecuación 12 nuestra variable β es dependiente
del tipo de ruido:
β = 0: Ruido blanco.
β = 1: Ruido rosa.
β = 2: Ruido marrón.
Para la compensación de las perturbaciones,
es posible lograrlo diseñando un controlador
que minimice la inuencia de D(s). Si nuestro
sistema incluye un controlador de tipo C(s), el
modelo cerrado sería como el que se muestra en
la ecuación 13:
El principal objetivo del diseño es que T(s)
reduzca la sensibilidad del sistema frente a D(s).
En donde esto implica una alta ganancia en bajas
(11)
Y(s) = Ycontrol (s)+Yperturbación (s)
(12)
|D()| A
ωβ
(13)
T(s) = (G(s)C(s)
1 + G(s)C(s)
frecuencias, para poder rechazar las perturbaciones
persistentes, además, una baja ganancia en alta
frecuencia para evitar la amplicación de ruido.
Aplicando estas métricas y modelos sugeridos
se proporciona una herramienta teórica solida
para poder diagnosticar fallos, compensar
perturbaciones y garantizar el desempeño
adecuado del sistema frente a condiciones reales
adversas.
Con esta metodología propuesta constituimos un
enfoque integral para poder realizar mediciones en
tiempo real con base de la función de transferencia
de sistemas dinámicos en operación. Haciendo
uso de señales delta y el análisis de respuesta en
frecuencia, logramos obtener una representación
más precisa del comportamiento de un sistema,
incluso bajo la influencia de perturbaciones
externas e incertidumbres. Con esta capacidad se
nos permite no solo identicar fallos y deficiencias
en los sistemas, sino también el desarrollo de
estrategias de control robustas y resilientes.
IV. Conclusión
[1] K. J. Åström and R. M. Murray, Feedback
Systems: An Introduction for Scientists
and Engineers, Princeton University Press,
2008.
[2] G. F. Franklin, J. D. Powell, and A. Emami-
Naeini, Feedback Control of Dynamic
Systems, 7th ed., Pearson, 2014.
[3] S. Skogestad and I. Postlethwaite,
Multivariable Feedback Control: Analysis
and Design, Wiley, 2005.
[4] J. C. Doyle, B. A. Francis, and A. R.
Tannenbaum, Feedback Control Theory,
Macmillan, 1992.
[5] P. Ioannou and J. Sun, Robust Adaptive
Control, Prentice Hall, 1996.
[6] H. K. Khalil, Nonlinear Systems, 3rd ed.,
Prentice Hall, 2002.
[7] M. V. Kothare, V. Balakrishnan, and M.
Morari, "Robust constrained model
predictive control using linear matrix
inequalities," Automatica, vol. 32, no. 10,
V. Referencias
71
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
pp. 1361–1379, 1996.
[8] Z. Gao and S. X. Ding, "State and
disturbance estimator for time-delay systems
with application to fault estimation and
signal compensation," IEEE Transactions
on Signal Processing, vol. 55, no. 12, pp.
5541–5551, 2007.
[9] G. F. Franklin et al., Digital Control of
Dynamic Systems, 3rd ed., Prentice Hall,
1997.
[10] R. E. Kalman, "A New Approach to Linear
Filtering and Prediction Problems," Journal
of Basic Engineering, vol. 82, no. 1, pp.
35–45, 1960.
[11] J. C. Doyle, "Guaranteed Margins for
LQG Regulators," IEEE Transactions on
Automatic Control, vol. 23, no. 4, pp. 756–
757, 1978.
[12] L. Ljung, System Identification: Theory for
the User, 2nd ed., Prentice Hall, 1999.
72
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
MARCO DE TRABAJO PARA PROYECTOS DE
CIENCIA CIUDADANA
1 Departamento de Tecnologias Computacionales, Universidad Autónoma de San Luis Potosí, México.
2 Departamento de Mecánica y Eléctrica, Universidad Autónoma de Coahuila, Coahuila, México.
RESUMEN ABSTRACT
César Guerra-García 1
Héctor G. Pérez-González 1
cesar.guerra@uaslp.mx
hectorgerardo@uaslp.mx
Marco Tulio Ramírez-Torres 1
Lizeth López-López 2
tulio.torres@uaslp.mx
lopezlopez@uadec.edu.mx
La ciencia ciudadana, también conocida como
participación pública en la investigación científica
y la producción de conocimiento, está ganando cada
vez más reconocimiento al momento de proponer
proyectos de ciencia ciudadana. Sin embargo, se
destacan preocupaciones sobre la calidad de los
datos y procesos de este tipo de proyectos. Para
mitigar estos problemas, se propone estandarizar
buenas prácticas, enfatizando asegurar la calidad
de los datos en todas las fases del ciclo de vida. La
principal contribución de este trabajo es identificar
cuáles son las mejores prácticas relacionadas
con proyectos de ciencia ciudadana e, investigar
cómo estas prácticas pueden enriquecerse con
otras relacionadas a la gestión de la calidad y
gobernanza de los datos. Como resultado, se ha
propuesto MAR.CI.CI, un framework para ayudar
a instituciones a proponer y ejecutar sus proyectos
de ciencia ciudadana.
Palabras Clave: Proyectos de Ciencia Ciudadana,
Datos de Ciencia Ciudadana
Citizen science, also known as public participation
in scientific research and knowledge production,
is gaining more and more recognition when
proposing citizen science projects. However,
concerns about data quality and processes of
this type of projects are highlighted. To mitigate
these problems, it is proposed to standardize good
practices, emphasizing ensuring data quality in
all phases of the life cycle. The main contribution
of this work is to identify which are the best
practices related to citizen science projects and,
to investigate how these practices can be enriched
with others related to data quality management
and governance. As a result, MAR.CI.CI has
been proposed, a framework to help institutions
propose and execute their citizen science projects.
Keywords: Citizen Science Projects, Citizen
Science Data
A Framework for Citizen Science Projects
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Fecha de Recepción: 15/02/2025. Fecha de Aceptación: 20/03/2025 Fecha de Publicación: 28/05/2025
73
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
I. Introducción
La primera vez que se utilizó el término Ciencia
Ciudadana (CC) en el sentido que se conoce
actualmente fue hace tres décadas, este término
se mencionó en la revista MIT Technology
Review en enero de 1989 [1]. El factor más
importante que define a la CC es que ciencos
no profesionales contribuyen a la investigación
científica. En consecuencia, es fundamental
reconocer las perspectivas y experiencias de
estos participantes. El término amplio que define
esta integración de contribuciones externas en la
investigación científica es “ciencia ciudadana,
siendo este fenómeno relativamente innovador [2].
Estos “no-científicos”, los “ciudadanos” en ciencia
ciudadana, pueden colaborar con los científicos
en todas las etapas y aspectos del proceso
científico, pero, en la mayoría de los proyectos,
los ciudadanos contribuyen principalmente en
la recolección y análisis de datos [3]. Mientras
que los científicos son frecuentemente escepticos
de la habilidad de los voluntarios para producir
datos exactos, una gran cantidad de publicaciones
muestran que diversos tipos de proyectos de CC
pueden producir datos con igual o mayor exactitud
que científicos profesionales. Cada conjunto
de Datos de Ciencia Ciudadana (DCC) debería
entonces ser juiciado por individuos, de acuerdo al
diseño y aplicación del proyecto, y no asumir que
sea de calidad inferior, simplemente porque fue
generado por voluntarios [4]. Los proyectos de CC
a menudo tratan con grandes conjuntos de datos,
por lo cual, es importante decidir antes de iniciar
un proyecto cuales datos serán recolectados, quien
debería tener los derechos sobre ellos y cómo
serán almacenados y se pondrán a disposición a
largo plazo. Los datos deberían ser almacenados
e incluir sus metadatos (método y localización
de datos recolectados); algunas veces, resulta
imposible utilizar estos datos sin dicha información
[5]. Aunque existe una variedad cada vez mayor
de proyectos que están usando métodos para
mejorar aspectos de calidad de datos y validez de
la investigación, no hay ninguna revisión de estos
mecanismos disponible para referencia. Nuestra
propuesta es que si bien el impulso inicial de la
mayoría de los científicos puede ser emplear
los métodos de calidad de datos estándar en su
campo, al formular proyectos de CC, puede ser
necesario un enfoque diferente para garantizar
aspectos de gobernanza, gestión y calidad de
datos, teniendo en cuenta la escala de participación
y expectativas en torno a las habilidades de los
colaboradores. La falta de hipótesis bien definidas
para definir protocolos de recolección de datos y
la variabilidad de habilidades de cada individuo,
son obstáculos importantes para interpretar con
precisión los datos del proyecto de CC que deben
reconocerse y abordarse durante el análisis [6]. La
aplicación de DCC puede resultar problemática si
investigadores y participantes no son conscientes
de los problemas de calidad de los datos que
podrían afectar sus análisis o usos [7]. En esta
investigación, se planteó que para mitigar estos
problemas, es posible recopilar un conjunto de
mejores prácticas (conocidas como procesos) que se
puedan utilizar para asegurar un comportamiento
homogéneo durante la formulación del proyecto
de CC (etapas de diseño y ejecución), y durante el
uso de los datos resultantes, ya sea internamente
entre los participantes (científicos o ciudadanos)
o externamente cuando estos participantes o
instituciones necesitan intercambiar datos con
terceros como gobiernos. Este conjunto de mejores
prácticas debería cubrir aspectos del proceso de
CC, así como algunos otros aspectos de la gestión
de la calidad de los datos y gobernanza. Así, el
equipo de investigación se apoyó en la idea del
enfoque basado en procesos planteado en ISO/
IEC 8000-61 [8] para la gestión de calidad de
datos, e ISO 12207 [9] para el caso de procesos
de software, para desarrollar el framework MAR.
CI.CI y apoyar de mejor forma las etapas de diseño
y ejecución de proyectos de CC. Así, la idea de
MAR.CI.CI es servir como referencia para que
cada investigador pueda personalizar sus propias
prácticas de Formulación de Proyectos de Ciencia
Ciudadana (FPCC) acorde a sus restricciones y
requisitos. MAR.CI.CI consta de 2 componentes.
-Modelo de Referencia de Procesos
(MRP), contiene cuatro grupos de procesos
gestionando aspectos específicos de actividades
de CC considerando las etapas del ciclo de vida de
los datos (desde la recolección hasta publicación).
Este MRP también cumple con los requisitos del
proceso de gobernanza de datos, gestión de datos
y gestión de la calidad de los datos incluidos en la
74
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
norma UNE 0080:2023 [10].
-Modelo de Evaluación de Procesos
(MEP), contiene los elementos necesarios para
que las organizaciones evalúen y mejoren sus
actividades de proyectos de CC de acuerdo con
el MRP proporcionado. Este MEP se basa en los
requisitos deI ISO/IEC 33003 [11] además de la
serie ISO 33000.
A. Propuestas existentes para la formulación de
proyectos de ciencia ciudadana
Una vez realizada una revisión bibliográfica en las
principales bases de datos (Scopus y Web of Science)
para encontrar trabajos relacionados con ciencia
ciudadana, se pudo encontrar siete propuestas, las
cuales plantean diferentes actividades o etapas
involucradas en la planificación de un proyecto
específico de CC.
Bonney et al. en [12], es quizá el primer intento de
proponer un modelo general para la construcción
de un proyecto de CC. Este modelo general fue
elaborado por un grupo de personas con experiencia
en educación, biología de la población, ciencia
de la información y estadística. Se divide en 9
procesos y es capaz de cumplir simultáneamente
los objetivos del proyecto como: reclutamiento,
investigación, conservación y educación. Tweddle
et al. en [13], propuso una guía destinada a ayudar
a las personas que ya participan en la CC en el
Reino Unido. Se basa en información detallada
recopilada y analizada como parte del proyecto
financiado por UK-EOF “Understanding Citizen
Science & Environmental Monitoring”, que revisó
de forma semisistemática 234 proyectos y 30
estudios de caso. Esta guía muestra 5 etapas y sus
actividades.
El consorcio GEWISS [5] propone una guía que
describe cómo se practica la CC en Alemania,
además de cómo se puede utilizar este enfoque
participativo en diferentes disciplinas y
áreas temáticas: educación, conservación y
humanidades. Esta propuesta está dirigida tanto a
II. Estado del arte y
trabajos relacionados
expertos como a participantes novatos; y muestra
6 etapas y algunas actividades definidas en cada
una. La Fundación para la Ciencia Ciudadana [14],
desarrolló un manual que ofrece un conjunto de
herramientas útiles asociadas a una metodología
para el diseño de proyectos de CC. Cada etapa de
la metodología está alineada a los 10 principios
definidos por la Asociación Europea de Ciencia
Ciudadana [15]. Por otra parte, la administración
de servicios generales [16] ha publicado una
Toolkit con cinco pasos básicos de procesos para
la planeación, diseño y ejecución de un proyecto
de crowdsourcing o CC. Cada paso definido en
la toolkit muestra una lista de consejos que los
participantes pueden utilizar para mantener su
proyecto en marcha. En [17], los autores proponen
un enfoque de CC contributiva como un método
valioso para los científicos y profesionales de
las ciencias ambientales, centrándose en el ciclo
de vida completo de la práctica de la CC, desde
el diseño hasta la implementación, la evaluación
y la gestión de datos. Esta propuesta destaca
cuestiones como la participación y retención de
participantes, la garantía de la calidad de los datos
y la corrección de sesgos. Por otro lado, Bolici y
Colella en [2] proponen un marco teórico diseñado
para apoyar actividades enfocadas principalmente
a proyectos de investigación en robótica, además
los autores comparan y seleccionan un conjunto
de metodologías para diseñar estrategias de CC
[12]. En consecuencia, se puede afirmar que no
existe un marco general que pueda tomarse como
base para la formulación de proyectos de CC, de
esta manera, los datos obtenidos en este tipo de
proyectos carecen de la calidad esperada por los
diferentes participantes, independientemente del
área de aplicación del proyecto de CC.
B. Norma UNE 0080:2023
La norma U NE 0080:2023 es una guía para la Mejora
de los Datos, es un marco para evaluar y mejorar
la madurez de los procesos de la organización
relacionados con la gestión, gobernanza y calidad
de datos. La UNE 0080:2023, está alineada
con varios estándares internacionales ISO/IEC
8000-61[8], ISO/IEC 8000-62 [18], ISO 38505-
1 [19], y también recoge algunas de las mejores
prácticas de estándares como COBIT 2019 [20] y
75
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
DAMAs DMBOK 2 [21]. La norma consiste de
dos componentes principales: 1) Un Modelo de
Referencia de Procesos (MRP), compuesto por 22
procesos agrupados en tres categorías: 5 procesos
en Gobernanza de Datos (GD), 13 procesos en
Administración de Datos (AD) y 4 procesos
en Gestión de Calidad de Datos (GCD). 2) Un
Modelo de Evaluación de Procesos (MEP), con
indicaciones para evaluar y mejorar la madurez de
una organización en relación con la capacidad de
la organización de sus procesos GD, GCD y AD.
III. Método de investigación
VI. Modelo de referencia de
procesos MAR.CI.CI
Para generar el framework MAR.CI.CI, se tomó
como base el método Investigación-Acción (IA)
[22] debido principalmente a la necesidad de
centrarse en los sistemas sociales y poner el
conocimiento en acción lo antes posible. IA es
una forma de investigación colaborativa que busca
unir la teoría y la práctica entre investigadores
y profesionales a través de un proceso cíclico,
produciendo nuevos conocimientos que son
útiles en la práctica. IA ha sido utilizado de
manera satisfactoria en sistemas de información
[23] e Ingeniería de Software [24], y dada la
naturaleza misma del dominio ciudadano de esta
investigación, creemos que puede utilizarse con
éxito dado el fuerte componente del hecho "social".
En este caso, el objetivo de la investigación es el
diseño de un framework para la formulación
de proyectos de ciencia ciudadana. Para lograr
nuestro objetivo, se planificaron tres ciclos de IA.
Para cada ciclo de IA identificamos diferentes
grupos de referencia críticos, manteniendo como
beneficiarios potenciales a cualquier investigador
que quiera personalizar su propio proceso de
FPCC.
-Un ciclo inicial de Definición de IA, en
este ciclo inicial, se exploró la literatura existente
para identificar problemas comunes en el proceso
de FPCC; una vez identicados, se propuso una
versión inicial del MRP con la idea de abordar los
problemas específicos, junto con formas comunes
de afrontar los problemas de calidad de datos
mediante la alineación de los procesos propuestos
en la norma UNE 0080:2023. Esta primera
versión fue validada con un grupo de expertos en
El objetivo principal del MRP es identificar los
procesos que se pueden utilizar para describir
y caracterizar todo el ciclo de vida de la FPCC
aplicados a cualquier tipo de área, ayudando a
las personas a cargo a identificar diferencias y
limitaciones para lograr una mayor calidad de
datos desde la perspectiva de las distintas partes
interesadas. La estructura de la organización de
los dieciséis procesos incluidos en el MRP está
adaptada del concepto de proceso Primario,
de Soporte y Organizativo de la norma ISO/
IEEE 12207:2017 [9]. Esto permite una mejor
comprensión del propósito de cada proceso y
también se puede utilizar para determinar mejor
la contribución de cada proceso al objetivo general
de la FPCC. Como resultado de lo anterior, se
identicaron los siguientes 4 grupos de procesos:
(1) Procesos Estratégicos (G Procesos), (2)
Procesos Principales (M Procesos), (3) Procesos
de Soporte (S Procesos), and (4) Otros Procesos (O
Procesos). En aras de interoperabilidad con otros
enfoques de procesos basados en normas ISO, la
descripción de cada proceso del MRP en MAR.
el diseño de proyectos de CC, que actuaron como
grupo crítico de referencia. A través de tres ciclos
de reuniones con sus refinamientos, se produjo
la primera versión del MRP, presentada en este
artículo.
-Un segundo ciclo de Aceptación de
IA, cuyo objetivo principal es presentar el marco
completo a varias partes interesadas previamente
identicadas con diferentes responsabilidades
para el proceso de CC en varios proyectos, para
identificar sus debilidades y fortalezas desde
varios puntos de vista. Con la retroalimentación
obtenida se obtendrá una versión más refinada,
tanto del MRP como del MEP.
-Un tercer ciclo de Validación de
IA, se aplicará la versión final del framework
MAR.CI.CI a ciertos proyectos propuestos en
“Observatorio de Ciencia Ciudadana en España
siguiendo la metodología de investigación de
estudio de caso.
76
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
CI.CI se realizó de acuerdo con ISO 24774 [25],
este modelo consta de los siguientes elementos.
-Título, es un encabezado descriptivo para
el proceso en cuestión.
-Propósito, describe el objetivo principal
del investigador al ejecutar cada proceso.
-Resultados, representa los resultados
observables de la ejecución exitosa del proces.
-Actividades, lista de acciones (mejores
prácticas) que pueden lograr los resultados.
Debido a las restricciones de extensión de este
documento, no se incluye la descripción completa
(por ejemplo, la descripción completa de los
cuatro elementos anteriores para los 4 grupos de
procesos). Solo se muestra el título, propósito, y
ciertos resultados y actividades del primer grupo
de Procesos Estratégico.
A. Grupo de procesos estratégico.
Este grupo de procesos aborda los asuntos
relacionados con la gobernanza de las actividades
de la FPCC (Tabla I), es decir, las relacionadas
con la creación de estándares internos, mejores
prácticas, y políticas para regular los detalles
-incluyendo los aspectos sobre la calidad de
datos desde el punto de vista institucional- en
relación con las diversas etapas de todos los datos
considerados para proyectos de CC. También se
destaca el enfoque en la estructura organizacional
y el recurso humano.
Como ejemplo, enseguida se mencionan los
resultados para el proceso G.01:
a) Lista actualizada de mejores prácticas en
la FPCC; b) Lista actualizada de pautas para
datos de la FPCC; c) Listado de políticas de
datos para la FPCC; d) Recursos para difundir
las mejores prácticas, normas, políticas y
directrices.
Para lograr los resultados previos del G.01, se
proponen las siguientes actividades:
- AG01.1. Seleccionar y definir las mejores
prácticas de CC para el área de investigación
específica del proyecto.
- AAG01.2. Asignar episodios a los participantes
en el proyecto de CC de acuerdo con reglas
predefinidas.
- AAG01.3. Enumerar y denir las normas y
regulaciones más importantes en materia
de protección/seguridad de datos, calidad
y acceso, para cumplir con el Reglamento
General de Protección de Datos (por ejemplo,
de la Unión Europea-EU GDPR).
- AG01.4. Definir normas sobre libros de
referencia estándar, instrumentos de apoyo y
directrices de proyectos de CC.
- AG01.5. Denir y armonizar las fuentes de
documentación que se considerarán para el
proyecto de CC específico.
Tabla I
PROCESOS ESTRATÉGICOS
Título del proceso Propósito
G.01. Creación o selec-
ción, implementación y
mantenimiento de están-
dares, mejores prácticas,
normas y políticas
El objetivo principal de este proceso es
establecer el entorno de gestión nece-
sario para ejecutar las actividades del
proyecto de CC de acuerdo con el área
de investigación específica, y las capa-
cidades de las instituciones; siguiendo
los criterios y recomendaciones brin-
dadas por los organismos autorizados a
nivel nacional.
G.02. Desarrollo y mejo-
ra de controles para cum-
plir con las políticas
Desarrollar y mantener los controles
correspondientes para verificar si las
políticas propuestas se están cumplien-
do durante la ejecución de las activida-
des de CC.
G.03. Administración
de la estructura organi-
zacional
Este proceso tiene como objetivo es-
tablecer y mantener una organización
de apoyo para los procesos de datos de
CC, identificando roles y responsabili-
dades y también definiendo las compe-
tencias y habilidades que se requieren
para cada responsabilidad
G.04. Gestión de compe-
tencias y habilidades de
los stakeholders
G.05. Identificación de
riesgos de los datos
Mantener un catálogo de la formación
necesaria para garantizar que los dife-
rentes participantes puedan alcanzar las
competencias y habilidades asociadas
necesarias para desempeñar sus fun-
ciones.
El propósito de este proceso es identi-
ficar los diferentes tipos de riesgos de
los datos que serán recopilados por los
diferentes participantes, por ejemplo,
privacidad, derechos, etc.
77
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Tabla II
PROCESOS PRINCIPALES
Tabla IV
OTROS PROCESOS
Tabla III
PROCESOS PRINCIPALES
- AG01.6. Garantizar la concienciación, la
formación y la preparación continua sobre
terminologías particulares.
- AG01.7. Definir normas y estándares sobre
los recursos de software y hardware que se
utilizarán dentro del ciclo de vida de los datos
del proyecto de CC.
- AG01.8. Identicar lista de riesgos de datos
implicados en el ciclo de vida de datos.
B. Grupo de procesos principales.
Este grupo de seis procesos tiene como objetivo
cubrir todos los aspectos relacionados con el
proyecto de CC propiamente dicho, describiendo
las diversas actividades relacionadas con el
ciclo de vida de los datos, desde su recopilación
(registros obtenidos por los ciudadanos) hasta
el uso y la explotación de los datos por parte
de investigadores, instituciones o centros de
investigación. Véase la Tabla II para conocer el
propósito de cada proceso principal.
C. Grupo de procesos de soporte.
En este grupo de cuatro procesos se abordan
los detalles de la gestión de la calidad de los
datos utilizados como entrada (recopilados por
ciudadanos e investigadores) y salida (datos
clasificados y metadatos) del proyecto de CC.
Además, se abordan las cuestiones relacionadas
con la gestión de la infraestructura tecnogica
y el mantenimiento de los estándares de datos
de referencia. La Tabla III muestra el título y
propósito del proceso.
D. Grupo de otros procesos.
Finalmente, un proceso perteneciente al grupo
Otros procesos se muestra en Tabla IV.
Título del proceso Propósito
M.01. Adquisición de
datos
Este proceso tiene como objetivo selec-
cionar y adquirir los datos necesarios
de las fuentes de datos típicas según el
área de aplicación del proyecto (datos
o registros tanto en papel como en
electrónico, imágenes, texto, audio,
fotografías, etc.).
M.02. Integración de los
datos (interno)
En este proceso se debe lograr la in-
tegración proveniente de las diversas
fuentes de datos para crear una base de
datos sólida para el proceso de ciencia
ciudadana.
M.03. Codificación de
los Metadatos
Este proceso tiene como objetivo
identificar adecuadamente cada uno
de los metadatos asociados a los datos
recopilados.
M.04. Envío de los datos
recopilados a un reposi-
torio central del proyecto
M.05. Explotación de
datos para los stakehol-
ders del proyecto
M.06. Explotación de
datos para futuras inves-
tigaciones
Este proceso cubre el envío de los datos
y sus metadatos correspondientes al
repositorio (base de datos) del proyecto.
El objetivo de este proceso es apoyar
todas las operaciones necesarias para
cada actor del proyecto, investigadores,
ciudadanos, universidades y organiza-
ciones.
Producir informes de investigación para
posiblemente proponer y liderar futuros
proyectos de investigación.
Título del proceso Propósito
S.01. Gestión de la
calidad de los datos de
entrada del proyecto de
ciencia ciudadana
El objetivo principal de este proceso es
evaluar el nivel de calidad tanto de los
datos como de los documentos recopi-
lados para el proyecto de CC.
S.02. Gestión de la
calidad de los datos de
ciencia ciudadana
Una vez producidos los datos, el objeti-
vo principal de este proceso es evaluar
la calidad de los datos resultantes del
proyecto de CC.
S.03. Gestión de datos
de referencia
Este proceso tiene como objetivo man-
tener los diversos datos de referencia
involucrados en el proyecto de CC
específico, según la disciplina o área de
aplicación.
S.04. Gestión de la in-
fraestructura tecnológica
Mantener un catálogo de la formación
necesaria para garantizar que los dife-
rentes participantes puedan alcanzar las
competencias y habilidades asociadas
necesarias para desempeñar sus fun-
ciones.
Título del proceso Propósito
O1. Proceso de difu-
sión de resultados El objetivo es publicar y difundir
los resultados del proyecto de CC.
Este proceso busca los espacios de
publicación específicos según la
disciplina de investigación, a fin de
describir los detalles más relevantes
del proyecto. De la misma manera,
los resultados se informan con fre-
cuencia en literatura popular, como
periódicos, revistas, sitios web y
boletines publicados por una varie-
dad de organizaciones.
78
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
E. Personalización del framework para un
contexto específico.
Se pretende que el MRP de MAR.CI.CI sea
lo suficientemente completo y flexible como
para poder personalizarse adecuadamente
para diversos contextos o disciplinas (por
ejemplo, países especícos). Así, los resultados
y las actividades deberían seleccionarse y
reinterpretarse para el contexto específico. Esto
implica, por ejemplo, identificar quiénes son los
actores y partes interesadas más relevantes para
los diversos grupos de procesos en cada contexto.
En este sentido, se han identificado actores/partes
interesadas que son muy relevantes para cualquier
tipo de proyecto de CC, independientemente del
área de aplicación del proyecto. Dichos actores se
han clasicado en tres grupos importantes:
Roles consultivos y responsabilidades. Son
los responsables de formular políticas generales
o los proponentes de políticas para el dominio
específico del proyecto de CC, que normalmente
están fuera de la organización a cargo de ejecutar el
proyecto. Proporcionan algunas sugerencias sobre
preocupaciones generales y recomendaciones
para algunas actividades, por ejemplo, la
publicación de resultados. Estos no suelen ser
roles activos, pudiéndose enumerar los siguientes:
1. Agencias y departamentos gubernamentales.
2. Organizaciones de la sociedad civil, grupos
informales y miembros de la comunidad.
Roles activos y responsabilidades para el
proceso. Trabajadores que de alguna manera están
involucrados en tareas de proyectos de CC a nivel
institucional, tanto para los Procesos Estratégicos,
Principales y de Soporte: 1. Investigadores
principales. 2. Comunidad académica. 3.
Ciudadanos involucrados en los proyectos de CC
(voluntarios y/o participantes). 4. Administradores
de instituciones de investigación. 5. Especialistas
tecnológicos.
Roles beneficiados, desempeñado por las partes
interesadas que utilizarán los datos recopilados y
clasificados para diversos fines: 1. Organizaciones
académicas y de investigación. 2. Investigadores
(de otras áreas o disciplinas relacionadas al
proyecto). 3. Ciudadanos en general (comunidad).
4. Instituciones de aprendizaje formal. 5. Negocios
e industria.
Personalización del framework MAR.
CI.CI para proyectos de CC específicos. La
institucionalización del framework MAR.CI.CI
implica la identificación y personalización de los
diversos resultados y actividades para la realidad
de las instituciones de investigación, considerando
las particularidades del flujo regular de datos que
siguen los procesos principales.
Como parte de esta personalización de actividades,
se deben identificar los puestos específicos en las
instituciones de investigación correspondientes
a los roles introducidos anteriormente y asignar
sus responsabilidades de manera conveniente,
además de establecer adecuadamente los medios
de comunicación. Con respecto a los resultados
y productos de trabajo, cada institución de
investigación o investigadores principales deben
generar consenso sobre cómo nombrarlos,
almacenarlos y establecer pautas mediante
políticas y procedimientos para explotarlos.
Esta investigación ha sido motivada por la
hipótesis de que contar con un framework para
proyectos de CC, y ponerlo en marcha no sólo
contribuirá a una mayor homogeneización de
sus procesos para instituciones de investigación
específicas, o disciplinas y áreas de investigación
particulares, sino también a posibilitar una mejor
interoperabilidad entre otras organizaciones,
posibilitando incluso la evaluación comparativa.
Además, la institucionalización de este framework
hará que el proyecto de CC sea mucho más eficiente,
interoperable y libre de errores, al afrontar la lista
de problemas enumerados en la sección II.A de
forma unificada y controlada desde un punto de
vista organizativo.
El principal impacto esperado de este MRP
no es solo identificar, mapear y estructurar los
diversos procesos y actividades relacionados
con el proyecto de CC en la vida cotidiana en
V. Discusión y trabajo futuro
79
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
las instituciones de investigación, sino también
proporcionar una herramienta de trabajo para
promover la reutilización de datos, las buenas
prácticas de CC y la organización de procesos,
promoviendo la mejora de la calidad de los
datos y el cuerpo de conocimientos. Como parte
del trabajo futuro a corto plazo, llevaremos a
cabo el ciclo de aceptación de la metodología
de Investigación-Acción, en el que pretendemos
obtener la aceptación de la comunidad involucrada
en los procesos de CC. Para ello, realizaremos
una serie de cuestionarios y entrevistas con
representantes de las distintas partes interesadas
descritas en la sección IV.E. La retroalimentación
obtenida se utilizará para renar el MRP.
[1] M. Haklay, D. Dorler, F. Heigi, M. Manzoni,
S. Hecker, y K. Vohland, «What is citizen
science? The challenges of definition»,
Springer, pp. 13-32, 2021, doi: https://doi.
org/10.1007/978-3-030-58278-4_2.
[2] F. Bolici y N. A. Colella, «How to Design
Citizen-Science Activities: A Framework
for Implementing Public Engagement
Strategies in a Research Project»,
Organizing for Digital Innovation, vol. 27,
2019, doi: doi.org/10.1007/978-3-319-
90500-6_12.
[3] A. Land-Zandstra, G. Agnello, y Y.
Gultekin, «Participants in Citizen Science»,
Springer, pp. 243-259, 2021, doi: https://
doi.org/10.1007/978-3-030-58278-4_13.
[4] M. Kosmala, A. Wiggins, A. Swanson, y
B. Simmons, «Assessing data quality in
citizen science», Frontiers in ecology and
the environment, pp. 551-560, 2016, doi:
doi:10.1002/fee.1436.
[5] GEWISS Consortium, «Citizen science
for all. A guide for citizen science
practitioners.» 2016. [En línea]. Disponible
en: https://www.buergerschaffenwissen.
de/sites/default/files/grid/2017/11/21/
handreichunga5_engl_web.pdf
[6] S. Kelling, D. Fink, F. La Sorte, A. Johnston,
N. E. Bruns, y W. M. Hochachka, «Taking
a ‘Big Data’ approach to data quality in a
citizen science project», Ambio, vol. 44, n.o
VII. Referencias
4, pp. 601-611, 2015, doi: doi.org/10.1007/
s13280-015-0710-4.
[7] R. Downs, H. Ramapriyan, G. Peng, y Y.
Wei, «Perspectives on Citizen Science Data
Quality», Frontiers in Climate, vol. 3, 2021,
doi: 10.3389/fclim.2021.615032.
[8] ISO, «ISO 8000-61:2016: Data quality
— Part 61: Data quality management:
Process reference model», ISO. Accedido:
4 de agosto de 2021. [En línea].
Disponible en: https://www.iso.org/cms/
render/live/en/sites/isoorg/contents/data/
standard/06/30/63086.html
[9] ISO, «ISO/IEC/IEEE 12207:2017 -
Systems and software engineering —
Software life cycle processes», ISO/IEC/
IEEE 12207:2017. Accedido: 11 de abril
de 2022. [En línea]. Disponible en: https://
www.iso.org/cms/render/live/en/sites/
isoorg/contents/data/standard/06/37/63712.
html
[10] UNE, «Especificación UNE 0080:2023,
Gestión de Evaluación del Gobierno,
Gestión y Gestión de Calidad del Dato».
2023.
[11] ISO, «ISO/IEC 33003:2015: Information
technology — Process assessment —
Requirements for process measurement
frameworks», ISO. Accedido: 11 de abril
de 2022. [En línea]. Disponible en: https://
www.iso.org/cms/render/live/en/sites/
isoorg/contents/data/standard/05/41/54177.
html
[12] R. Bonney, C. B. Cooper, J. Dickinson, S.
Kelling, y T. Phillips, «A developing tool for
expanding science knowledge and scientific
literacy», BioScience, vol. 59, pp. 977-984,
2009.
[13] J. C. Tweddle, P. F. Fisher, M. J. Pocock,
y H. E. Roy, «Guide to citizen science:
developing, implementing and evaluating
citizen science to study biodiversity and the
environment in the UK». Natural History
Museum and NERC Centre for Ecology &
Hydrology for UK-EOF, 2012. [En línea].
Disponible en: https://www.ceh.ac.uk/sites/
default/files/citizenscienceguide.pdf
[14] D. Acevedo Caradeux, «Ciencia
Ciudadana. Principios, Herramientas,
80
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Proyectos de Medio Ambiente». Fundación
Ciencia Ciudadana. Embajada de
Canadá, 2018. [En línea]. Disponible en:
http://cienciaciudadana.cl/wp-content/
uploads/2018/04/libro-CC-OK.pdf
[15] ECSA, «Ten Principles of Citizen
Science». ECSA (European Citizen Science
Association), 2015. [En línea]. Disponible
en: doi.org/10.17605/OSF.IO/XPR2N
[16] CitizenScience.gov, «Federal
Crowdsourcing and Citizen Science
Toolkit». U.S. General Services
Administration, 2015. [En línea].
Disponible en: https://www.citizenscience.
gov/toolkit/howto/#
[17] D. Fraisl, G. Hager, B. Bedessem, M.
Gold, y P.-Y. Hsing, «Citizen science in
environmental and ecological sciences»,
Nature Reviews Methods Primers, vol. 2,
2022, doi: doi.org/10.1038/s43586-022-
00144-4.
[18] ISO, «ISO 8000-62:2018: Information
technology — Process assessment —
Requirements for process reference, process
assessment and maturity models», ISO.
Accedido: 11 de abril de 2022. [En línea].
Disponible en: https://www.iso.org/cms/
render/live/en/sites/isoorg/contents/data/
standard/06/53/65340.html
[19] ISO, «ISO/IEC 38505-1:2017 Information
technology — Governance of IT —
Governance of data — Part 1: Application
of ISO/IEC 38500 to the governance of
data», ISO/IEC 38505-1:2017 Information
technology — Governance of IT —
Governance of data — Part 1: Application
of ISO/IEC 38500 to the governance of
data. Accedido: 9 de mayo de 2021. [En
línea]. Disponible en: https://www.iso.org/
standard/56639.html
[20] ISACA, COBIT 2019 Framework.
Introduction and methodology.
Schaumburg, IL. EE.UU, 2018.
[21] DAMA, DAMA-DMBOK: data
management body of knowledge. Technics
Publications, LLC, 2017.
[22] C. Wohlin y P. Runeson, «Guiding the
selection of research methodology in
industry–academia collaboration in software
engineering», Information and Software
Technology, vol. 140, p. 106678, dic. 2021,
doi: 10.1016/j.infsof.2021.106678.
[23] D. E. Avison, R. M. Davison, y J.
Malaurent, «Information systems action
research: Debunking myths and overcoming
barriers», Information & Management, vol.
55, n.o 2, pp. 177-187, mar. 2018, doi:
10.1016/j.im.2017.05.004.
[24] M. Staron, Action Research in Software
Engineering. Springer, 2020.
[25] ISO, «ISO/IEC/IEEE 24774:2021 Systems
and software engineering — Life cycle
management — Specification for process
description», ISO. Accedido: 11 de abril
de 2022. [En línea]. Disponible en: https://
www.iso.org/cms/render/live/en/sites/
isoorg/contents/data/standard/07/89/78981.
html
81
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
EXPERIMENTACIÓN EN INGENIERÍA DE SOFTWARE:
CASO DE ESTUDIO PROGRAMACIÓN EN PAREJA
1 Facultad de Contaduría y Administración, Universidad Veracruzana, Coatzacoalcos, Veracruz, México.
RESUMEN ABSTRACT
José Julián Ventura Uscanga
Luis Antonio Morales Velázquez
zs22017046@estudiantes.uv.mx
luismorales04@uv.mx
Patricia Martínez Moreno
José Antonio Vergara Camacho
pmartinez@uv.mx
jvergara@uv.mx
Debido a los beneficios de la programación
en pareja en el desarrollo de software como el
aumento en la producción de código de calidad
y la transferencia de conocimientos entre un
equipo de desarrollo, esta práctica ha captado el
interés de educadores en Ingeniería de Software
como una estrategia efectiva para desarrollar
competencias clave en los estudiantes. Con el
objetivo de evaluar su efectividad como método de
enseñanza, se realizó un estudio con estudiantes
de Ingeniería de Software, aplicando actividades
relacionadas con la programación. Al comparar
los resultados en términos de calificaciones y
calidad del código, tanto individual como en
pareja, y tras aplicar pruebas estadísticas, se
concluyó que la programación en pareja mejora el
desempeño general de los alumnos. Los resultados
demostraron que las calificaciones y la calidad del
código en pareja fueron superiores en promedio,
confirmando que esta práctica es un método de
enseñanza efectivo y beneficioso.
Palabras Clave: Programación en pareja,
programación, calidad de código
Due to the benefits of pair programming in software
development, such as increased production of
quality code and knowledge transfer within a
development team, this practice has captured the
interest of educators in Software Engineering as
an effective strategy for developing key skills in
students. To evaluate its effectiveness as a teaching
method, a study was conducted with Software
Engineering students, applying programming-
related activities. When comparing the results in
terms of grades and code quality, both individually
and in pairs, and after applying statistical tests, it
was concluded that pair programming improves
students' overall performance. The results showed
that grades and code quality in pairs were higher
on average, confirming that this practice is an
effective and beneficial teaching method.
Keywords: Pair programming, programming,
code quality
Experimentation in Software Engineering: Pair Programming
Case Study
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
DOI: https://doi.org/10.47187/perspectivas.7.1.239
Fecha de Recepción: 15/02/2025. Fecha de Aceptación: 20/03/2025 Fecha de Publicación: 28/05/2025
82
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
I. Introducción
II. Trabajos relacionados
La programación individual es típicamente la
primera forma en la que un programador aprende y
se familiariza con todo lo que conlleva la práctica,
y a medida que avanza, desarrolla programas cada
vez más complejos aplicando su propia lógica y
creando su propio estilo de programación. Por otra
parte, un programador puede estar al tanto o no
de la calidad de su código. La calidad del código
implica muchos aspectos entre los que destacan
los principios de un código limpio, su eficiencia
y optimización. En el ámbito profesional, el
código fuente define gran parte de calidad de un
sistema [1] por lo que se han creado estilos de
programación que mejoran el proceso y aseguran
la calidad, como la programación en pareja.
La programación en pareja es una práctica
popularizada con la creciente tendencia de las
metodologías ágiles en los proyectos de software.
Existen testigos de esta práctica desde 1953 [2], sin
embargo, es XP la que define a la programación
en pareja como una práctica primaria para la
construcción de software en un proyecto [3]. En los
últimos años también se ha evaluado el desempeño
de esta práctica, tanto en el ámbito profesional
como en el educativo de la programación debido
a sus beneficios; ha demostrado inuenciar en
aspectos como la calidad del código y la rapidez
de su producción, el estado de ánimo de los
programadores, la comunicación efectiva entre
equipos de desarrollo, el aprendizaje entre pares y
la transferencia de conocimientos [2]
Específicamente en la región de Coatzacoalcos de
la Universidad Veracruzana en la que toma lugar
el presente estudio, la Ingeniería de Software es
un área con oportunidades escasas, por lo que
también presenta una disminución en la presencia
de empresas u organizaciones especializadas, las
cuales contratan programadores capaces para la
construcción de sistemas. Por ello, los educadores
de Ingeniería de Software de la zona deben
encontrar métodos de enseñanza efectivos para el
desarrollo de las habilidades de la programación
de los estudiantes, donde la programación en
pareja puede tratarse de una estrategia aplicable de
manera que logre una mejor retención y aplicación
de los conocimientos revisados en clase, además
Por la manera en que la programación en pareja
puede beneficiar a estudiantes de la programación,
ha habido un gran enfoque dentro del campo de
la educación en Ciencias de la Computación
sobre cómo y por qué la programación en pareja
es una técnica exitosa [4] y efectiva para el
de promover el interés y la estancia de los alumnos
en sus respectivos cursos.
Programación en pareja. La programación en
pareja es un estilo de programación en la que
dos programadores trabajan lado a lado en una
computadora, colaborando continuamente en el
mismo diseño, algoritmo, código o prueba [2]. Una
persona juega el rol de conductor (driver), que es la
que escribe o realiza acciones en la computadora;
y otra hace de navegador (navigator). El navegador
es el responsable de identicar los errores tácticos
y estratégicos del conductor [2]. Los errores
tácticos son, por ejemplo, los errores de sintaxis,
ortográficos o llamar a la función equivocada.
Los errores estratégicos son, por ejemplo, cuando
el conductor está codificando una función que
produce cierto resultado en un programa, pero
este resultado está alejado a lo que realmente
debería cumplir la función. Es deber del navegador
identicar este tipo de situaciones, comunicarle
al conductor sus observaciones y discutir una
solución de manera conjunta.
Muchos de los beneficios de la programación en
pareja son documentados por Williams y Kessler
[2]. En su obra, mencionan que la programación
en pareja influye positivamente en la calidad del
código y la rapidez de su producción. El código
es producido con menos defectos y además en la
mitad del tiempo que toma en comparación con
la programación individual. Este estilo también
construye la confianza y mejora el trabajo en
equipo. Por último, destacan el aprendizaje
mejorado. Las parejas adquieren nuevos
conocimientos según observan a su compañero
trabajar, como su habilidad de resolución de
problemas, el cómo utilizan las capacidades de
un lenguaje de programación, o cómo emplean las
herramientas de desarrollo.
83
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
III. Diseño del experimento
Con el fin de determinar que la programación
en pareja es una forma de enseñanza valiosa que
puede mejorar el aprendizaje, el rendimiento
académico y la calidad del trabajo de los
estudiantes de la licenciatura en Ingeniería de
Software, se llevó a cabo un experimento en la
Universidad Veracruzana Campus Coatzacoalcos
con el objetivo de evaluar la implementación
de la programación en pareja en un curso de
quinto periodo con un total de 15 estudiantes en
la asignatura de Paradigmas de Programación,
durante la introducción al paradigma de POO.
3.1 Selección de sujetos
Para el experimento, participaron 15 estudiantes
de quinto periodo de la Licenciatura en Ingeniería
de Software. Los estudiantes contaban con
experiencia programando, habiendo completado
los cursos de Introducción a la Programación,
Programación, Estructuras de Datos y Principios
de Construcción de Software. Los conocimientos
de los estudiantes se tomaron como suficientes
para que pudieran llevar a cabo las actividades
diseñadas con normalidad. Por otra parte, el
tamaño de la muestra fue considerado como
limitante para el experimento, y se tomaron
medidas para contrarrestar la falta de fiabilidad de
los resultados, como el análisis de la normalidad
de los datos y la selección de una prueba de
contraste de hipótesis adecuada para el análisis de
los resultados.
3.2 Selección de variables
Variables independientes. Las variables
independientes identificadas para este experimento
son las respectivas estrategias o estilos de
programación aplicados por actividad, es decir, la
programación individual y en pareja.
Variables dependientes. Se identificaron dos
variables dependientes que tienen como objetivo
aprendizaje y el aumento del desempeño en sus
cursos. Por ello, este estilo de programación ha
sido ampliamente estudiado y aplicado en cursos
reales de programación de diferentes instituciones
educativas para su evaluar si su implementación
funciona como un método de enseñanza valioso.
En un estudio [5] realizado en la Universidad de
Tecnología y Negocios de Chongqing, China en
2010 se hizo un experimento con 59 estudiantes
que formaban parte de un curso de programación
en Java. Los estudiantes fueron emparejados con
base en habilidades de programación similares. El
estudio fue llevado a cabo para evaluar el impacto
de la programación en pareja en la calidad del
trabajo de los estudiantes, así como la evolución de
la confianza de sus habilidades de programación.
Al terminar el experimento, un 70% de los
estudiantes acordaron que la confianza en sus
habilidades mejoró gracias a la programación
en pareja. Las calificaciones obtenidas en pareja
fueron más altas que los individuales, concluyendo
que los artefactos producidos por las parejas son
de mayor calidad. Por último, los estudiantes
comentaron positivamente acerca del aprendizaje
mejorado y de la calidad trabajando en pares.
En 2013 se realizó un estudio [4] en el Politécnico
de Otago, Nueva Zelanda en el curso de
Programación I donde se aplicaron actividades
individuales y en pareja a 40 estudiantes. Las
parejas fueron asignadas de forma que el nivel
de habilidad (1, 2 y 3) de ambos estudiantes era
similar. El experimento examinó la evolución
de la confianza de las habilidades aplicando la
programación en pareja y su efectividad como
un método de enseñanza efectivo. Los resultados
mostraron que los estudiantes con habilidades
de nivel 1 completaron un 84% más actividades
en pareja. Además, la proporción de estudiantes
de nivel 1 disminuyó alrededor de un 22%, y
obtuvieron calificaciones más altas. Finalmente,
los estudiantes comentaron positivamente acerca
de la programación en pareja destacando la
retroalimentación constante por sus parejas,
la resolución de problemas mejorada, y una
socialización más amplia con sus compañeros.
Los docentes concluyeron que la programación en
pareja sirve como un método de enseñanza efectivo
y beneficioso para los estudiantes principiantes de
la programación, sugiriendo la aplicación de este
estilo en cursos similares.
84
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
medir cuantitativamente el desempeño de los
estudiantes, siendo estas la calicación y el puntaje
de calidad del código de sus entregables.
3.3 Instrumentación
Para recopilar los datos, se diseñaron dos
actividades diferentes relacionadas con el
paradigma de la POO. La primera consistía
en realizar un ejercicio de manera individual
aplicando este paradigma donde se debía crear una
aplicación que controlara un registro de vehículos.
Para la segunda tarea se definió que los estudiantes
formaran parejas libremente según su preferencia.
El ejercicio consistió en un crear una aplicación
similar a la anterior en nivel de complejidad, con
la diferencia de que se trataba de la gestión de
una biblioteca. Las actividades ponían en práctica
conceptos tales como las clases y sus relaciones,
herencia y encapsulación.
Se emplearon dos rúbricas para evaluar el trabajo
de los alumnos. La primera rúbrica trata sobre los
criterios para la asignación de calificaciones, donde
la puntación máxima es de 100 puntos. La segunda
rúbrica se utilizó para evaluar los siguientes aspectos
de la calidad del código: Dominio del lenguaje Java,
Fundamentos de POO, Claridad y Mantenibilidad,
Uso de Patrones de Diseño, Documentación y
Comentarios, Optimización de rendimiento,
Manejo de recursos, Resolución de problemas y
Depuración, que sumaba un total de 36 puntos.
3.4 Ejecución del experimento
Antes de aplicar las actividades a los estudiantes,
se les comentó brevemente que participarán en
un experimento para evaluar la programación
en pareja, y se explicó cuál es la dinámica de
dicha práctica. Las actividades se llevaron en
dos sesiones diferentes en un laboratorio de
cómputo, en el cual se aseguró que los alumnos
se distribuyeran a lo largo de laboratorio para
facilitar la programación en pareja. También, se
les comentó que mantuvieran buenas prácticas
de codificación y documentación a lo largo de su
código. Al finalizar cada actividad, los estudiantes
debían entregar sus evidencias a través de un
repositorio en GitHub.
3.5 Validación de datos
Los datos obtenidos fueron los puntajes
asignados de calificación y calidad del código
tras la evaluación del trabajo de los estudiantes
de forma individual y en pareja utilizando las
rúbricas prestablecidas. Todos los estudiantes
entregaron satisfactoriamente sus evidencias. Se
detectaron dos valores atípicos en la calificación
y el puntaje de calidad del código correspondiente
a los mismos sujetos al aplicar la primera
actividad en individual. Estos valores modificaron
notablemente la distribución de los datos, debido
principalmente al tamaño de la muestra. También
se omitió el resultado de un estudiante en pareja
para mantener la homogeneidad de dicho tamaño
IV. Análisis e interpretación
de los resultados
El procedimiento de análisis está principalmente
basado en la metodología de proceso experimental
propuesto por Piattini, M [6]. A continuación, se
muestran los resultados obtenidos del experimento
en las dos actividades aplicadas para evaluar la
programación individual y en pareja. La tabla I
muestra la calificación y el puntaje de la calidad
del código de los estudiantes en dichas actividades.
La Fig. 1 muestra los diagramas de cajas y bigotes
con el fin de demostrar la dispersión de los datos
obtenidos e identificar diferencias entre los grupos.
Tabla I
PUNTAJES OBTENIDOS POR ESTUDIANTE
Estudiante Calificación Calidad del código
Individual Parejas Individual Parejas
Estudiante 1 65 90 32 33
Estudiante 2 90 95 31 32
Estudiante 3 35 70 10 24
Estudiante 4 85 90 18 32
Estudiante 5 45 70 14 24
Estudiante 6 90 90 30 33
Estudiante 7 85 90 34 32
Estudiante 8 90 95 32 34
Estudiante 9 90 90 34 32
Estudiante 10 85 90 30 33
Estudiante 11 95 95 31 33
Estudiante 12 75 90 24 33
Estudiante 13 70 90 24 32
Estudiante 14 35 90 15 33
Estudiante 15 85 95 29 34
85
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
A primera instancia, se puede deducir que el
rendimiento de los alumnos mejoró aplicando
la programación en pareja. De la Fig.1, se
puede observar que los diagramas poseen una
distribución similar, de la cual se puede destacar
que la estrategia individual posee una dispersión y
varianza de datos más notable que en pareja.
4.1 Estadística descriptiva
En la tabla II se muestran el promedio, la mediana
y la desviación estándar de las calificaciones y la
puntuación de calidad del código obtenidas por
los estudiantes trabajando de forma individual
y en pareja. Se observa que la calificación y la
calidad del código obtenidos en pareja es mayor
que en individual. La desviación estándar también
indica que hubo una variación de datos mayor en
la estrategia individual, mientras que, en pareja,
Tabla II
ESTADÍSTICA DESCRIPTIVA DE CALIFICACIONES Y
CALIDAD DEL CÓDIGO.
Tabla III
RESULTADOS DE LA PRUEBA DE SHAPIRO-WILK PARA
CALIFICACIONES Y CALIDAD DEL CÓDIGO.
Fig. 1. Diagramas de calificaciones y calidad del código por
estrategia.
las calificaciones y el puntaje de la calidad son
más consistentes respecto a la media.
4.2 Análisis de normalidad
Primeramente, se determinó si se posee una
distribución normal de la diferencia de las
calificaciones y el puntaje de la calidad del código
entre las estrategias aplicadas a través de la prueba
de Shapiro-Wilk, con el fin de seleccionar qué
tipo de prueba se aplicará sobre los datos. En la
tabla III se resumen los resultados de la prueba de
normalidad.
Estableciendo un valor de α = 0.05, en la prueba
de hipótesis sobre la normalidad para el conjunto
de datos correspondiente a las calificaciones
y calidad del código individual y en parejas
se rechaza la hipótesis nula, indicando que no
cuentan con una distribución normal. Conociendo
las normalidades de los datos, es posible establecer
que para la prueba de contraste de hipótesis se
ocupará la prueba no paramétrica de rangos con
signos Wilcoxon.
4.3 Comparación de resultados
Para establecer que existe una diferencia entre el
desempeño de los estudiantes de forma individual
Origen N Calificación Calidad del código
Mediana sMediana s
Indivi-
dual 15 74.666 85 20.569 25.866 30 7.945
Parejas 15 88.666 90 7.898 31.6 33 3.157
Origen Prueba de Shapiro-Wilk
α W p Rechazar H0
Calificaciones
individual 0.05 0.794 0.003 si 0.003 > 0.05
Calificaciones
pareja 0.05 0.623 4.201e-05 si 4.201e-05 > 0.05
Calidad individual 0.05 0.852 0.018 si 0.018 > 0.05
Calidad pareja 0.05 0.601 2.624e-05 si 2.624e-05 > 0.05
86
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
y en pareja, se aplicó la prueba no paramétrica
para muestras dependientes de rangos con signo
de Wilcoxon de cola superior. Se optó por emplear
una prueba para muestras dependientes, debido a
que se tratan de los mismos sujetos experimentales
evaluados y la finalidad es comparar su desempeño
antes y después de aplicar la programación
en pareja. Por otra parte, las condiciones del
experimento son casi idénticas con la excepción
que, en la primera actividad, los estudiantes
trabajaban individualmente; los criterios de
evaluación no se modificaron y la temática de la
actividad continuaba sobre el paradigma de POO.
A continuación, se describe la interpretación de la
prueba de hipótesis de dicha prueba:
Prueba de rangos con signos de Wilcoxon de cola
superior. La prueba de hipótesis para el rechazo de
la hipótesis nula es la siguiente:
H0: La diferencia de las medianas de los
puntajes entre parejas e individual es menor
o igual que 0.
Md 0 (1)
H1: La diferencia de las medianas de los
puntajes entre parejas e individual es mayor que 0.
Md 0 (2)
donde Md = (Mparejas - Mindividual).
Los siguientes apartados contienen la
interpretación de las pruebas de hipótesis para los
dos criterios evaluados:
Calificaciones. En la tabla IV se resumen los
resultados de la prueba de Wilcoxon. Considerando
un nivel de signicancia α = 0.05 y el valor de
p = 0.001, es posible rechazar la hipótesis nula,
por lo que la diferencia de las medianas de las
calificaciones entre la estrategia en pareja e
individual es mayor que 0. Con ello es posible
concluir que la mediana de las calificaciones en
pareja es mayor que en individual, demostrando
que los estudiantes consiguieron mejores
calificaciones trabajando en pareja.
Calidad del código. La tabla V resume los
resultados obtenidos de la prueba de Wilcoxon.
Considerando un nivel de signicancia α = 0.05 y el
valor de p = 0.002 obtenido, se rechaza la hipótesis
nula, por lo que la diferencia de las medianas de
la calidad del código entre la estrategia en pareja
e individual es mayor que 0. Con ello es posible
concluir que la mediana de la calidad del código
en pareja es mayor que en individual, demostrando
que el código de los estudiantes mostró una mejor
calidad en pareja.
4.4 Amenazas a la validez
Validez interna. Se consideraron los siguientes
aspectos como amenazas a la validez interna: el
emparejamiento de los estudiantes, la experiencia
adquirida, y los sujetos al tanto del experimento. El
primero hace referencia a la manera en que fueron
emparejados los estudiantes; para el experimento,
se les indicó que formaran parejas de manera libre,
lo que pudo influenciar en los resultados obtenidos
ya sea positiva o negativamente.
La experiencia adquirida es en cuestión de la
adquisición de conocimientos para resolver la
segunda actividad; al completar la primera tarea,
los alumnos aprendieron cómo solucionar los
problemas dados, entonces, es lógico que para
la segunda actividad sabrán cómo resolverlo de
manera más rápida y sencilla. El último aspecto
es sobre la información dada del experimento a
los estudiantes; esta consideración es importante,
ya que el desempeño de los sujetos puede ser
fácilmente manipulado, de forma que para la
primera actividad pudieron no haberse esforzado
en completarla, y para la segunda, realizarla de la
Tabla IV
RESULTADOS DE PRUEBA DE WILCOXON PARA
CALIFICACIONES
Tabla V
RESULTADOS DE PRUEBA DE WILCOXON PARA
CALIDAD DEL CÓDIGO
Calificaciones Prueba de Wilcoxon
α V p Rechazar H0
Resultados 0.05 0 0.001 Si 0.001 < 0.05
Calidad del código Prueba de Wilcoxon
α V p Rechazar H0
Resultados 0.05 9 0.002 Si 0.002 < 0.05
87
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
mejor manera, alterando la validez de la conclusión
del experimento.
Validez externa. La única amenaza detectada
para la validez externa fue la selección de sujetos,
donde en el presente experimento se consideró
como adecuado, ya que el contexto del estudio y
los sujetos están relacionados y al final fueron los
ideales para llevar a cabo el experimento.
Validez de la conclusión. Entre las amenazas
identicadas se tomaron en cuenta el tamaño de
la muestra y el poder estadístico de la prueba de
contraste de hipótesis seleccionada. El tamaño
de la muestra fue considerado como limitante
para el experimento debido a que era bajo y fue
determinante para la normalidad de los datos.
Debido al tamaño de la muestra y la normalidad,
se aplicó una prueba no paramétrica para
muestras pareadas, la prueba de rangos con signos
de Wilcoxon, la cual posee un poder estadístico
relativamente inferior a comparación de su
contraparte paramétrica, la prueba T pareada.
V. Conclusiones
Tras la aplicación del experimento, la recopilación
de resultados y realización del análisis estadístico
empleando las pruebas adecuadas al tamaño de
muestra limitada para determinar las pruebas de
hipótesis sobre la comparación de la programación
en pareja se determinó que esta última se trata
de una estrategia aplicable en la enseñanza de
la Ingeniería de Software que tiene un impacto
positivo en el rendimiento académico y de la
calidad del código en los estudiantes de Ingeniería
de Software, de tal manera que el promedio de
calificaciones obtenidas aumentaron y el código
producido cumplió más con los criterios de calidad
establecidos, además de representar puntajes
más consistentes y con menor variación. Si bien
es cierto, que es un experimento ya probado y
comprobado como se muestra en el apartado
trabajos relacionados, cabe señalar que, para este
contexto y región geográfica no se había realizado.
Los resultados concuerdan con los estudios
relacionados con la experimentación de la
programación en pareja, en los cuales se logró
demostrar que esta estrategia mejora el desempeño
de los estudiantes y la calidad de su trabajo. Dichos
datos sugieren que la programación en pareja es
un método de enseñanza efectivo y beneficioso,
y que su implementación cumple con el objetivo
de lograr un mayor desarrollo de las habilidades y
conocimientos de los alumnos.
[1] McConnel, S. Code Complete. A practical
handbook of software construction.
Microsoft Press, 2004.
[2] Williams, L. y Kessler, R. Pair Programming
Illuminated. Addison-Wesley, 2003.
[3] Beck, K. y Andres, C. Extreme
programming explained. Second Edition.
Addison-Wesley, 2004.
[4] Wood, K., Parsons, D., Gasson, J., y Haden,
P. “It's never too early: pair programming
in CS1”. In Proceedings of the Fifteenth
Australasian Computing Education
Conference - Volume 136 (ACE '13).
Australian Computer Society, Inc., AUS,
2013, pp. 13–21. Biol. 147, 195 197 (1981).
doi: 10.1016/0022-2836(81)90087-5
[5] Lai, H. y Xin, W. "Experimental research of
the pair programming in java programming
course," Proceeding of the International
Conference on e-Education, Entertainment
and e-Management, Bali, Indonesia, 2011,
pp. 257-260.
[6] Piattini, M. Métodos de investigación en
ingeniería del software. Ra-Ma, 2014.
VI. Referencias
88
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
MODELO PARA LA EVALUACIÓN OBJETIVA DE
INTERFACES MEDIANTE EL ANÁLISIS DE LOS
PATRONES DE ATENCIÓN VISUAL OBTENIDOS CON
EYE-TRACKING.
1 Departamento Ciencias de la Computación, Universidad Autónoma de Aguascalientes, Aguascalientes, México.
RESUMEN ABSTRACT
Ángel Villegas Ortíz 1
Eduardo Rodríguez López 1
al235190@edu.uaa.mx
emlopez@correo.uaa.mx
Francisco Álvarez Rodríguez 1fjalvar@correo.uaa.mx
Con las herramientas actuales de diseño y
evaluación de interfaces, es muy difícil estimar
objetivamente la información sobre usabilidad.
Tecnologías como el eye-tracking amplían los
enfoques para obtener imparcialmente datos sobre
la atención visual. Sin embargo, la obtención de
información biométrica mediante eye-tracking no
indica pe se la calidad y cantidad de información
obtenida al evaluar una interfaz. Por ello, en este
trabajo establecemos un modelo para relacionar
las abstracciones de los procesos de atención
visual que se despliegan al utilizar una interfaz
y las interpretaciones de los valores cuantitativos
que proporcionan los datos biométricos obtenidos
por un eye-tracking.
Palabras Clave: Diseño de interfaces, Evaluación
de interfaces, Patrones de diseño de interfaces,
Patrones de atención visual, Eye-tracking.
With current interface design and evaluation
tools, it is tough to objectively estimate usability
information. Technologies such as eye-tracking
extend the approaches to obtain data on visual
attention impartially. However, obtaining
biometric information through eye-tracking does
not necessarily indicate the quality and quantity
of information obtained when evaluating an
interface. Therefore, in this work, we establish
a model to relate the abstractions of the visual
attention processes that are deployed when
using an interface and the interpretations of the
quantitative values provided by the biometric data
obtained by eye-tracking.
Keywords: UI Design, UI Testing, Interface
Pattern Design, Visual attention patterns, Eye-
tracking.
Model for objective evaluation of interfaces by analyzing visual
attention patterns obtained with eye-tracking
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
DOI: https://doi.org/10.47187/perspectivas.7.1.236
Fecha de Recepción: 15/02/2025. Fecha de Aceptación: 17/03/2025 Fecha de Publicación: 28/05/2025
89
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
I. Introducción
II. Problemática
La mayoría de los procesos de software cuentan
con muchas herramientas para enfocar sus
diseños, procesos, evaluaciones, despliegues y
demás etapas mediante modelos metodológicos
que permiten obtener buenos resultados, sin
embargo, si los procesos de diseño de software
y sus evaluaciones fueran perfectos no existirían
experiencias pobres o productos que fracasaran en
el mercado. Para poder mejorar la certidumbre de
algunas de las etapas que conforman el desarrollo
de un producto es de vital importancia obtener datos
por parte del usuario para conocer de antemano la
experiencia de algunas propuestas de diseño, entre
más objetiva sea la información obtenida mejores
probabilidades tendrá el producto de sobrevivir y
destacar en el mercado una vez desplegado [1].
Con el fin de proporcionar una nueva fuente de
información para que tanto diseñadores, como
evaluadores y des miembros del equipo que
estén relacionados con la usabilidad de una interfaz
y los mecanismos de interacción subsecuentes, la
implementación de técnicas de eye-tracking surge
como una aproximación para la obtención de datos
biométricos de forma no invasiva y fácilmente
implementable en la mayoría de los dispositivos y
plataformas [2]. En particular, y como se aborda
a lo largo del trabajo, se ha detectado que las
etapas de diseño y evaluación de las interfaces
son un punto neurálgico que determinan el agrado
de usuario y otros aspectos como la eficacia,
eficiencia, claridad de la información, etc., de una
interfaz [3].
En la parte inicial de este trabajo se desarrolla
sobre un conjunto de conceptos que hacen de
piedra angular de muchas de las propuestas
principales que se plantean. Dentro de este mismo
marco teórico se abordan las principales variables
de eye-tracking que permiten diseñar un conjunto
de ecuaciones que, de manera cuantitativa,
permite estimar la usabilidad de una interfaz al
ser expuesta a un usuario.
Para poder analizar a detalle una interfaz
es necesario establecer los elementos que la
conforman, así como sus propiedades. En este
trabajo se establece una nomenclatura para la
En la actualidad muchos de los paradigmas del
desarrollo de un producto de software están
enfocados en evaluar de manera correctiva si los
prototipos o versiones de un producto cumplen con
los objetivos de uso deseables establecidos mucho
antes en la etapa del análisis y diseño del producto
[4]. Incluso en metodologías ágiles cada una de
sus etapas como análisis, diseño, prototipado, etc.
enfocan sus evaluaciones de manera correctiva [5].
Ahora bien, conceptos como el diseño centrado
en el usuario (o DCU por sus siglas en inglés) se
sugiere que para que el usuario final del producto le
sea agradable usarlo, el proceso debe inmiscuirlo
de lleno en las etapas de diseño y evaluación de
interfaces, de ahí la relevancia de estas etapas en
las propuestas de este trabajo. Como se menciona
en [3] , cuando se implementa el DCU una de las
variables que mejora ampliamente la calidad de
uso del producto desarrollado es la opinión precisa
y objetiva obtenida del usuario.
De acuerdo con [6] los enfoques DCU son
los encargados de modelar la experiencia de
usuario, por lo que hace de vital importancia
las aportaciones que este puede ofrecer como
retroalimentación a los desarrolladores del
producto. Este tipo de enfoques resulta mucho
más beneficioso ya que se tiene poca información,
pero esta es mucho más precisa y lo más objetiva
posible. Es en este punto que entran las técnicas de
obtención de señales biométricas en el análisis de
la experiencia del usuario como una nueva fuente
identificación de los elementos en pantalla,
formalización de las métricas que rigen la
atención visual y otros subprocesos que reflejan
las áreas en dónde es más determinante obtener
información durante una evaluación mediante
eye-tracking y, además, descubrir cómo es posible
usar esta información para motivar decisiones de
diseño en iteraciones posteriores de las propuestas
de interfaces. Por último, se abordan varios casos
de estudio que implementaron las propuestas de
este trabajo y permitieron encontrar los puntos
débiles y fuertes de una propuesta de diseño de
interfaz de manera efectiva.
90
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
de información que permita a los desarrolladores
mejorar la certidumbre de sus diseños [2].
III. Marco teórico
Con el fin de brindar propuestas metodológicas
más completas y específicas se establecen un
conjunto de conceptos relacionados con este
trabajo. En esta sección se abordan conceptos
como lo son los fundamentos del diseño de
interfaces, así como las evaluaciones actuales
que se realizan sobre ellas, para posteriormente,
repasar conceptos de la tecnología de eye-
tracking y sus principales métricas.
A. Diseño de Interfaces
El diseño de interfaces corresponde a toda
actividad relacionada con la selección de los
elementos de una o más propuestas de diseño que
conforman un sistema. Una de las principales
dificultades a la hora de proponer un diseño es que
incluso en interfaces similares, las interacciones
y agrado del usuario pueden diferir ampliamente
[7]. Existe una gran cantidad de enfoques que
abordan esta problemática de diferentes maneras,
dentro de las más convencionales se define que
un buen diseño puede ser propuesto tomando
en cuenta, primeramente, la capacidad de los
elementos para generar un entorno familiar y
reconocible para el usuario, posteriormente,
que los elementos sean uniformes y parecidos
entre sí y que los colores ayuden a representar
ideas abstractas de interacción. Con lo anterior
se busca brindar al usuario de herramientas para
evitar que este se frustre al intentar resolver una
tarea, o se mantenga en la aplicación durante más
tiempo.
Pero incluso aunque una interfaz tome en cuenta
los conceptos anteriores, y añada otros, es
muy complicado garantizar que las propuestas
de diseño, al ser desplegadas, funcionen
correctamente como lo planteó el diseñador.
Uno de los enfoques que busca disminuir las
probabilidades de que un usuario no perciba la
interacción de manera agradable o efectiva es el
concepto de diseño centrado en el usuario. Este
enfoque da un giro de 180 grados en el proceso
de elaboración de interfaces ya que, en lugar de
probar diseños generados exclusivamente con el
criterio del diseñador, se inmiscuye al usuario
en el propio diseño con el fin de considerar
sus intereses, problemas de uso, errores no
considerados, a la vez que se pule la experiencia
de usuario [8]. La información obtenida por
diversos usuarios reales o hipotéticos permite
modelar perfiles de usuarios objetivo. Estos
perfiles ayudan al diseñador a determinar qué
elementos y que propiedades de estos ofrecen
mejores interacciones para cada tipo de persona
que los use [9].
B. Evaluación de Interfaces
Existen diferentes paradigmas para evaluar una
propuesta de diseño de interfaz, anteriormente las
evaluaciones estaban limitadas por la validación
del funcionamiento técnico de los elementos que
la conforman y los requerimientos establecidos
durante el análisis. A este tipo de pruebas se les
denomina pruebas de caja blanca y de caja negra.
Si bien este tipo de pruebas sigue estando vigente
en la mayoría de las evaluaciones actuales estas
conforman solo una de las tantas etapas en la
evaluación de software [10].
La evolución natural que sufrió la evaluación
de interfaces se enfoca en integrar el concepto
de usabilidad dentro de los parámetros de
la evaluación del sistema. Las pruebas de
usabilidad como las encuestas a usuarios o listas
de verificación de requerimientos de uso han sido
durante muchos años herramientas capaces para
estimar errores muy notorios en una experiencia
de uso [11], [12]. Este tipo de evaluación puede
generar un tipo de evaluación cuantitativa
que se asigna al cumplimiento de las rúbricas
propuestas, sin embargo, la fuente de los datos es
meramente cualitativa.
Por lo anterior, se identica en este trabajo que
existe una necesidad en el estado del arte de los
procesos de evaluación de interfaces de adaptar e
implementar nuevos enfoques y tecnologías para
estimar de forma más amplia la manera en que
se puede tanto obtener información por parte de
un usuario, así como estudiar los efectos de los
91
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
IV. Modelo para el análisis
objetivo de interfaces
elementos que conforman el diseño en la atención
visual en la experiencia del usuario.
C. Eye-tracking
El eye-tracking es una técnica que se centra en
el registro de los patrones de atención visual al
exponer al usuario a diferentes estímulos [13].
El registro de la atención visual consta de dos
principales variables de las cuáles derivan un
conjunto de métricas cuantitativas que describen
los procesos visuales por parte del sujeto, las
variables se denominan: fijaciones y movimientos
sacádicos. Ambos conceptos coexisten en un
proceso llamado “barrido” en el cuál una persona
hace búsquedas constantes y muy rápidas con
la mirada en distintos puntos de un estímulo (o
interfaz en este caso), las fijaciones son puntos
en los que la mirada se detuvo en búsqueda de
información, mientras que los movimientos
sacádicos son el recorrido entre cada punto de
interés que se detectó en el barrido [13], [14]. En
la Fig. 1 puede verse una representación gráfica
de estos conceptos.
La propuesta para la evaluación de interfaces
comprende tres principales secciones que
permiten identificar los elementos que conforman
el diseño y que, después del análisis con eye-
tracking, ofrecen resultados cuantitativos del uso
de estas mediante un conjunto de ecuaciones.
Esta propuesta establece que la calidad de
interacción humano-computadora de una
interfaz gráfica está dada por su capacidad para
ser entendida, usada y recorrida. Ampliando
los conceptos de eye-tracking mencionados en
el apartado C de la sección III las herramientas
de esta técnica ofrecen lecturas muy precisas de
los procesos de atención visual, sin embargo,
para poder relacionar estos procesos visuales
con el uso tangible de una interfaz es necesario
proponer interpretaciones específicas para cada
métrica que se haya identificado como válida
para evaluar una interfaz.
Nomenclatura de interfaces
Identificar los elementos de una interfaz puede
parecer una nimiedad para el análisis de la
usabilidad, sin embargo, enlistarlos promueve la
formalización de las propiedades y funciones de
estos en el proceso de interacción. Además, para
el diseñador sirve como una rúbrica que puede
consultar antes y después de la evaluación con
el fin de detectar los elementos más relevantes.
A continuación, se expresa la nomenclatura
propuesta para la identificación de cada elemento
en un diseño de interfaz:
Hoy en día existen herramientas como el eye-
tracker Tobii Pro Nano, desarrollado por Tobii
Technology [15], el cual está enfocado al análisis
de eye-tracking en monitores, pantallas y existen
algunos aditamentos que permiten el análisis de
dispositivos móviles, todo lo anterior es posible
manejarlo mediane el software de Tobii Pro
Lab, desarrollado por la misma empresa antes
mencionada.
Fig. 1. Representación visual de fijaciones y movimientos sacádicos
Sea una interfaz de estudio con una
cantidad finita de elementos que con-
forman el diseño y tomando el símbolo
” como significa, la interfaz y sus
elementos se denotan:
I Interfaz
n Elemento de interfaz
N Conjunto de elementos n de una
interfaz
I(n) Elemento n de la interfaz I
(1)
92
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
B. Métricas de eye-tracking para la evaluación de
interfaces
Las tecnologías actuales de eye-tracking permiten
obtener un gran número de métricas relacionadas
con la atención visual, existen métricas que
contemplan los tiempos para realizar una primera
jación o el tiempo que tarda en salir de un área en
particular. Si bien cada métrica brinda diferente
información existe poca fundamentación e
implementaciones en las que se proponga un
conjunto específico de métricas para estimar
experiencias de uso en interfaces digitales [16].
La selección de las métricas de este trabajo está
fuertemente basada en los conceptos de fijaciones
y movimientos sacádicos, por lo que la primera
propuesta del conjunto de métricas consta de tres
clasificaciones: métricas de fijaciones, métricas de
movimientos sacádicos y métricas de interacción.
Las métricas de fijaciones están relacionadas con
la obtención de la información que contiene un
elemento, en otras palabras, los cambios en la
cantidad y duración de la fijación se relacionan
con la capacidad de un elemento para ofrecer
información [17], [18]. Complementario a lo
anterior, las métricas de movimientos sacádicos
responden a la búsqueda de los elementos más
relevantes y de manera más particular a procesos
de lectura [19], [20].
En la Tabla I se congregan las variables obtenidas
con la herramienta de Tobii Pro Lab que mejor
se adaptan a las propuestas de investigación
mencionando su nombre, variable y unidad de
medida.
C. Interpretaciones de las métricas de eye-
tracking
Lograr un primer análisis de la atención visual
de una persona cunado interactúa con una
interfaz es complicado ya que como se ha
mencionado anteriormente, los procesos visuales
están íntimamente relacionados con procesos
cognitivos que incluso siguen estudiándose hoy
en día [21]. Sin embargo, al someter al análisis de
uso de interfaces a las técnicas de eye-tracking
es posible recabar más y mejor información que
permitan descubrir nuevos patrones o precisar
los ya descubiertos con técnicas o metodologías
relacionadas el concepto de patrones de diseño de
interfaces, entre otros enfoques para el diseño de
los elementos en pantalla [22].
Ahora bien, encontrar los patrones de uso mediante
eye-tracking también requiere de una abstracción
considerable, ya que se desea que las métricas
obtenidas por la técnica antes mencionada logren
representar cómo las propiedades de los elementos
que componen el diseño inuyen en la percepción
y experiencia por parte del usuario [9].
En la Tabla II se congregan las variables de
eye-tracking, las interpretaciones relacionadas
(que corresponden específicamente a uno de
los elementos que componen la atención visual
humana) y las reglas de interpretación. Las reglas
de interpretación son casos opcionales que indican
de mejor manera los significados de los valores
cuantitativos de las métricas de eye-tracking para
que un evaluador tenga una hoja de ruta para la
interpretación de los resultados obtenidos.
D. Índices de Evaluación de Interfaces mediante
Eye-tracking (INUSINET)
Para un evaluador de software resulta muy valioso
poder aumentar las fuentes de información que
le permitan tener decisiones informadas, pero,
sobre todo, acertadas. Obtener información de la
interacción mediante comentarios del evaluador o
encuestas al usuario son un método valioso, sin
embargo, todo queda a criterio de la estimación
subjetiva del evaluador de lo que comprende para
él la calidad de la usabilidad.
Tabla I
VARIABLES, MÉTRICAS DE EYE-TRACKING Y
UNIDADES DE MEDIDA
Variable Métrica Unidad de medida
Cf(n) Cantidad de fijaciones en n. Conteo número entero.
Df(n) Duración de fijaciones en n. Milisegundos (ms.)
Int(n) Interacciones (Clicks) en
elemento n. Conteo número entero.
Cs(n) Cantidad de mov. Sacádicos en n. Conteo número entero.
Vs(n) Velocidad promedio de mov.
Sacádicos en n. (px/ms).
93
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
Tabla II
VARIABLES, INTERPRETACIONES DE ATENCIÓN
VISUAL Y REGLAS DE INTERPRETACIÓN.
El modelo de evaluación de interfaces INUSINET
o Índice del Uso de Interfaces mediante Eye-
Tracking (elaboración propia, 2024) utiliza
las propuestas de los apartados A, B y C de la
sección IV para fundamentar y establecer una
parametrización de la calidad de los elementos
que conforman el diseño. Una vez identificados
cada uno de ellos es posible generar expectativas
de uso para cada uno. Se debe tener en cuenta
que más allá de solo un conjunto de elementos
con propiedades definidas, son un equipo que
tiene que permitirle al usuario resolver una tarea
específica mientras interactúe con la interfaz que
los despliega.
Lo anterior hace evidente que el desempeño
del “equipo” de conjuntos está estrechamente
relacionado con las propiedades de cada elemento
individual y qué tan capaces son de cumplir su
tarea y también apoyar a sus demás compañeros
durante la interacción del usuario.
Ya definida la relevancia de las propiedades de
los elementos en la evaluación de interfaces, se
proponen tres principales abstracciones de los
procesos de atención visual al usar interfaces
que permite registrar, analizar y calificar si cada
uno de los elementos está cumpliendo su tarea
individual o existen puntos débiles en el proceso
de interacción en un conjunto de estos.
Las ecuaciones de los índices están ampliamente
Variable Interpretación
relacionada Regla de Interpretación
Cf(n)
E→Eficacia de
obtención de
información (2)
Df(n)
R→Relevancia en la
obtención de
información
(3)
Int(n) F→Facilidad de uso (4)
Cs(n)
P→Eficiencia en la
obtención de
información (5)
Vs(n) H→Esfuerzo de lectu-
ra requerido (6)
(7)
(8)
(9)
inspiradas en procesos de atención visual que
se realizan cada vez que una persona realiza
un “barrido” sobre un estímulo. El índice de
complejidad de entendimiento (o ICE por sus
siglas), Ec. 7, hace referencia a la capacidad
de cada elemento para ser identificado y la
capacidad para que el usuario intuya su uso.
El índice de complejidad de uso (ICU por sus
siglas), contenido en la Ec. 8, está relacionado
con el esfuerzo necesario para realizar una
interacción, este subproceso más que un
mecanismo físico hay una coordinación
consciente y jerárquica de la secuencia estimada
de uso, en otras palabras, el acto de interactuar
con un elemento en pantalla requiere un rastreo
ocular seguido de interacciones físicas muy
específicas. Por último, el índice de complejidad
de recorrido (ICR por sus siglas), Ec. 9, hace
referencia principalmente al apartado de
búsqueda en el proceso de atención visual,
también está estrechamente relacionado con los
procesos de lectura, por lo que se establece que
este índice permite conocer la capacidad de los
elementos para ser encontrados en pantalla, y a
la vez, la claridad de las fuentes y colores que
lo conforman.
V. Resultados
Si bien la implementación de las técnicas de
eye-tracking es una propuesta novedosa ya se ha
podido experimentar en varios casos de estudio
con las propuestas de este trabajo. Cabe destacar
que la propuesta particular de INUSINET
existe dentro de otro modelo metodológico más
amplio denominado Evaluación del Uso de
Interfaces mediante Eye-Tracking (EVUSINET)
(elaboración propia, 2023). Este marco de trabajo
se centra en permitir el análisis de eye-tracking
en productos de software con características
y objetivos muy diferentes entre sí, pero que
comparten la implementación del eye-tracking
94
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
como principal motivador de los diseños y cambios
en las interfaces que conforman el sistema. Antes
de iniciar el análisis de las interfaces se comparte
un breve resumen de los casos de estudio
involucrados y, posteriormente, se expresan las
cuatro interfaces en las que la implementación de
las técnicas de INUSINET permitieron encontrar
deficiencias en las propuestas de diseño o
corroborar que la interacción era la esperada por
parte de los diseñadores.
A. Casos de estudio.
Los casos de estudio que se abordan en este
trabajo fueron dos proyectos que tuvieron
procesos de desarrollo muy diferentes entre
sí, pero que comparten la implementación de
las técnicas de eye-tracking como principal
herramienta para mejorar las características de
uso de sus interfaces.
El caso de estudio 1 “Easy-Bank Vision” se
planteó como una plataforma web de tipo banca
en línea que permitiera mediante el diseño de sus
interfaces ofrecer experiencias claras y eficientes
para diversos tipos de perfiles, en particular
para personas jóvenes con ninguna experiencia
en bancas en línea o personas mayores que no
tuvieran experiencia con el manejo de equipo
de cómputo en general. Este proyecto tuvo un
periodo de producción de 1 año y se realizaron un
total de 26 pruebas, de las cuales se descartaron
4 por calibraciones pobres.
El caso de estudio 2 “RELIF” se enfoca en una
plataforma realizada mediante Unity en la que
se busca ofrecer una herramienta de seguimiento
de terapias de rehabilitación facial para
personas con parálisis facial central y periférica
particularmente. Este trabajo tuvo un proceso
de desarrollo con tiempos muy limitados (12
semanas aproximadamente). Una vez definidos
los requerimientos y objetivos del proyecto, y
tomando en cuenta como principal método de
evaluación de interfaces las técnicas de eye-
tracking, se realizaron un total de 20 pruebas
de 4 versiones del producto de manera iterativa,
es decir, cada versión del software se sometía a
5 pruebas con usuarios y, posteriormente, con
base en estos resultados se proponían mejoras de
diseño hasta encontrar una versión que cumpliera
las expectativas de los diseñadores y evaluadores.
B. Patrones de lectura.
En la investigación de [23] se aborda ampliamente
el efecto de los patrones de lectura tanto en el
interés de la persona hacia un elemento y la
secuencia en la que recorre los contenidos. En
la Fig. 2 el diseño de interfaz de esa versión
contaba con texto repartido en toda la pantalla
en un formato columnas. Las pruebas que se
realizaron con eye-tracking lograron demostrar
que los movimientos sacádicos entre los distintos
elementos de la interfaz fueron muy amplios y
desordenados. Lo que indica que para mantener
una lectura adecuada hay que mantener los textos
correctamente agrupados en regiones específicas.
Fig. 2. Interfaz “Saldos y Movimientos” del caso de estudio 1 “Easy-
Bank Vision”.
C. Distribución
La distribución de los elementos le brinda al
usuario un punto de partida para comprender
cómo se debe usar la interfaz o cuál es la secuencia
óptima para completar la tarea [17]. En la Fig. 3
se observa un caso en el que la distribución de
los elementos juega a favor del usuario ya que
como se observa, las fijaciones se congregan
en espacios específicos de la interfaz que el
diseñador desea que sean visitados. A su vez,
la secuencia del recorrido de los movimientos
sacádicos es principalmente horizontal, salvo
registros muy específicos no hay fijaciones en
lugares irrelevantes de la interfaz.
95
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
E. Familiaridad y Dimensión
Conforme las teorías e implementaciones de
eye-tracking son estudiadas más relaciones se
encuentran entre los procesos cognitivos y de
atención visual, tanto que incluso pueden ser
considerados como parte de un mismo proceso
[17]. En la Fig. 4 se observa como un rostro
humano siempre llama poderosamente la atención
del usuario, posteriormente dirige la atención
hacia otros elementos basándose principalmente
en la dimensión de ellos, como lo es la cámara que
conforma la mayor cantidad de área en pantalla.
Fig. 3. Interfaz “Home” del caso de estudio 1 “Easy-Bank Vision”.
Fig. 4. Interfaz “Ejercicios” del caso de estudio 2 “RELIF”.
Fig. 5. Interfaz “Login” del caso de estudio 1 “EasyBank Vision”.
VI. Conclusiones
Como se ha mencionado en este trabajo, las
técnicas de eye-tracking son una herramienta
muy buena para obtener información adicional
de un usuario cuando hace uso de un producto de
software, sin embargo, aunque este modelo está
enfocado en mejorar la certidumbre del diseñador
y la objetividad de las evaluaciones sigue siendo
requerida una interpretación por parte de los
evaluadores. Sin embargo, como se abordó en la
sección de resultados, una vez que las propuestas
de diseño son puestas a prueba y se utilizan los
conceptos de atención visual con los resultados
obtenidos de manera práctica es posible modelar
las experiencias de buena manera.
Las propuestas de este trabajo siguen en constante
mejora y actualización gracias a que es posible
adaptar las técnicas y conceptos aquí descritos en
una gran cantidad de productos de software, por
lo que se insta a demás diseñadores, evaluadores
e investigadores a probar con más y más diversos
casos de estudio que mejoren la precisión del
modelo propuesto, así como su aplicabilidad.
F. Color de los elementos
Como se menciona en [24] los colores despliegan
poderosos estímulos en el cerebro humano. De
manera natural el ojo humano está entrenado para
distinguir u obviar otros. En este caso de estudio
de la Fig. 5, en la parte inferior derecha se observa
un caso de lo segundo, donde la paleta de colores
escogida para esta interfaz perjudicó fuertemente
la experiencia de varias personas que probaron
la aplicación impidiéndoles reconocer algunos
elementos y recorrerlos de manera óptima.
[1] A. Suárez Batista, A. Febles Estrada,
and Y. Trujillo Casañola, “Software as a
service: Necessity and challenge on service
systems of Cuban Software Industry,”
Revista Cubana de Ciencias Informáticas,
vol. 10, 2016, Accessed: Jan. 18, 2025.
[Online]. Available: http://rcci.uci.cuPág.31-
45Editorial"EdicionesFuturo"
[2] A. Poole and L. J. Ball, “Eye tracking in
VII. Referencias
96
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
human-computer interaction and usability
research: Current status and future
prospects,” in Encyclopedia of Human
Computer Interaction, Idea Group, 2006, pp.
211–219. [Online]. Available: https://www.
researchgate.net/publication/230786738
[3] N. Chochoiek, “Explaining the Success
of User-Centered Design - An Empirical
Study across German B2C Firms,” Junior
Management Science, vol. 2, no. 1, pp. 81–
116, 2017, doi: 10.5282/jums/v2i1pp81-116.
[4] B. Suratno and J. Shafira, “Development
of User Interface/User Experience using
Design Thinking Approach for GMS
Service Company,” Journal of Information
Systems and Informatics, vol. 4, no. 2, 2022,
[Online]. Available: http://journal-isi.org/
index.php/isi
[5] Z. Latif, K. Sharif, F. Li, M. M. Karim,
and Y. Wang, “A Comprehensive Survey of
Interface Protocols for Software Defined
Networks,” Feb. 2019, [Online]. Available:
http://arxiv.org/abs/1902.07913
[6] S. Fleury and N. Chaniaud, “Multi-user
centered design: acceptance, user experience,
user research and user testing,” Theor Issues
Ergon Sci, vol. 25, no. 2, pp. 209–224, 2024,
doi: 10.1080/1463922X.2023.2166623.
[7] X. Li, H. Zheng, J. Chen, Y. Zong, and L.
Yu, “User Interaction Interface Design and
Innovation Based on Artificial Intelligence
Technology,” Journal of Theory and
Practice of Engineering Science, vol. 4,
no. 03, pp. 1–8, Mar. 2024, doi: 10.53469/
jtpes.2024.04(03).01.
[8] T. S. Da Silva, A. Martin, F. Maurer, and
M. Silveira, “User-centered design and
agile methods: A systematic review,” in
Proceedings - 2011 Agile Conference,
Agile 2011, 2011, pp. 77–86. doi: 10.1109/
AGILE.2011.24.
[9] J. Johnson, Designing with the Mind in
Mind Simple Guide to Understanding User
Interface Design Rules. 2010.
[10] Y. P. Vera et al., “Design Thinking en la
Planificación de Pruebas de Software Design
Thinking in Software Testing Planning,
2020.
[11] E. Lukito Edi, D. Syarif Sihabudin Sahid,
P. Insap Santosa, R. Ferdiana, and L. N.
Edi, “Evaluation and measurement of
Learning Management System based on
user experience,” 2018, doi: 10.1109/
INAES.2016.7821910.
[12] B. E. Florián, O. Solarte, and J. M. Reyes,
“Propuesta para incorporar evaluación y
pruebas de usabilidad dentro de un proceso
de desarrollo de software,” Revista EIA, vol.
13, pp. 123–141, Jul. 2010.
[13] B. T. Carter and S. G. Luke, “Best practices
in eye tracking research,” International
Journal of Psychophysiology, vol. 155,
pp. 49–62, Sep. 2020, doi: 10.1016/j.
ijpsycho.2020.05.010.
[14] A. Duchowski, Eye Tracking Methodology,
3rd ed. Clemson, SC. USA: Springer Nature,
2017. doi: 10.1007/978-3-319-57883-5.
[15] Tobii Technologys Oficial Web site.
Accessed: Oct. 10, 2024. [Online]. Available:
https://www.tobii.com/
[16] Z. Sharafi, T. Shaffer, B. Sharif, and Y.
G. Gueheneuc, “Eye-tracking metrics in
software engineering,” in Proceedings - Asia-
Pacific Software Engineering Conference,
APSEC, IEEE Computer Society, May 2016,
pp. 96–103. doi: 10.1109/APSEC.2015.53.
[17] J. M. Colmenero, A. Catena, and L. J.
Fuentes, “Atención visual: Una revisión
sobre las redes atencionales del cerebro,
vol. 17, no. 1, pp. 45–67, 2001.
[18] C. Gutiérrez de Piñeres Botero, “Visión
humana y movimientos oculares,” 2019.
[Online]. Available: https://commons.
wikimedia.org/wiki/File:Blau-
[19] F. Martínez Gutiérrez, “Eyetracking y
usabilidad: Claves de investigación en
los procesos de lectura en línea,” Revista
de Comunicación de la SEECI, vol. 0,
no. 16, p. 98, Jul. 2008, doi: 10.15198/
seeci.2008.16.98-114.
[20] A. Ramírez Coronel, “Relación entre los
movimientos sacádicos , lateraldiad y
proceso lector.,” Espirales, 2018.
[21] V. Skaramagkas et al., “Review of eye
tracking metrics involved in emotional and
cognitive processes,” 2021.
[22] V. Díaz Herráez and P. Varona, “Estudio
de la precisión de los dispositivos de eye-
97
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
tracking para la evaluación de patrones de
lectura,” Universidad Autonoma de Madrid,
Madrid, España, 2017. Accessed: Jun. 21,
2022. [Online]. Available: http://hdl.handle.
net/10486/679804
[23] G. Parodi and C. Julio, “¿Dónde se posan
los ojos al leer textos multisemióticos
disciplinares? Procesamiento de palabras
y gráficos en un estudio experimental
con eye tracker,” Revista Signos, vol. 49,
pp. 149–183, 2016, doi: 10.4067/S0718-
09342016000400008.
[24] L. Tarazona Evangelista, Y. Aguilar Baca, and
V. Rivera Flores, “Uso de la teoría del color
para mejorar la atención visual en estudiantes
del segundo grado de secundaria de la
I.E. San Martín de de Socabaya, Arequipa
2017,” UNIVERSIDAD NACIONAL SAN
AGUSTÍN DE AREQUIPA, Arequipa,
Perú., 2018.
VII. Notas Bibliográficas
Angel Eduardo Villegas
Ortíz es estudiante
del Doctorado en
Ciencias Aplicadas Y
Tecnologías por parte de
la Universidad Autónoma
de Aguascalientes (UAA).
Cuenta con el grado en
Ingeniería en Sistemas
Computacionales y
Maestría en Ciencias Computacionales, ambas
por parte de la institución antes mencionada.
Ha impartido cursos de nivel licenciatura y
actualmente dirige varios proyectos relacionados
con las teorías de implementación de eye-tracking
en la ingeniería de software.
Eduardo Emmanuel
Rodríguez López es
Candidato a Doctor
en Ciencias Aplicadas
y Tecnología por la
Universidad Autónoma
de Aguascalientes
(UAA). Tiene el grado
de maestría en Ciencias
de la Computación y de
Ingeniería Biomédica, ambos también por la
UAA. Se ha desempeñado como profesor en los
departamentos de Sistemas Electrónicos y de
Ciencias de la Computación (UAA) y en la Facultad
de Ingeniería en la Universidad Panamericana.
Actualmente se dedica a la investigación en
Ingeniería de Software y Ciencia de Datos y sus
principales intereses están enfocados en Análisis
de Datos y Machine Learning.
Dr. Francisco Javier
Álvarez Rodríguez,
Profesor de Ingeniería
de Software adscrito al
Departamento de Ciencias
de la Computación,
Universidad Autónoma de Aguascalientes
(U.A.A.). Doctor en Ingeniería por la UNAM
(México). Doctor en Metodología de la Enseñanza
por el IMEP (México). Ha sido Decano del Centro
de Ciencias Básicas en la U.A.A., así como jefe de
Departamento de Sistemas Electrónicos. Miembro
de núcleos académicos de diversos posgrados en
xico y Latino américa: Doctorado en Ciencias
de la Computación, Doctorado Interinstitucional
en Ciencias, Maestría en Ciencias con opción
a Matemática y Computación, por mencionar
algunos. Autor de libros y artículos sobre la línea
Objetos de Aprendizaje, Procesos de Desarrollo de
Software, Tecnologías Inclusivas y Minería de datos
aplicados a la educación. Tiene diversos registros
de propiedad intelectual de modelos y software.
Miembro del Sistema Nacional de Investigadores,
y es parte de diversas redes investigación nacional
e internacional sobre Ingeniería de Software y
Tecnologías Inclusivas, así como editor en jefe
e invitado de diversas revistas de investigación.
Actualmente es presidente del Consejo Nacional
de Acreditación de programas de Informática y
Computación, A.C.
98
REVISTA PERSPECTIVAS
VOLUMEN 7, N˚1 / ENERO - JUNIO 2025 / e - ISSN: 2661
http://perspectivas.espoch.edu.ec/
REVISTA PERSPECTIVAS
REVISTA TÉCNICA CIENTÍFICA DE LA FIE
COBERTURA TEMÁTICA DE LA REVISTA PERSPECTIVAS
1. Ingeniería Eléctrica, Electrónica y Telecomunicaciones
(Incluye electromagnetismo y óptica aplicada, redes y comunicación de datos, sistemas
electrónicos, sistemas digitales, telecomunicaciones, TIC’s).
2. Automatización, Software y Sistemas Inteligentes
(Incluye automatización y control, informática educativa, software y aplicaciones, inteligencia
articial, sistemas automotrices).
3. Energía, Sostenibilidad y Gestión Industrial
(Incluye energías renovables y eciencia energética, termodinámica y uidos, gestión del
mantenimiento industrial, producción industrial y manufactura).
4. Diseño, Innovación y Patrimonio
(Incluye diseño gráco, creatividad aplicada a la ingeniería, cultura, patrimonio tecnológico y
desarrollo sostenible).
5. Materiales, Mecánica y Procesos de Manufactura
(Incluye materiales, diseño mecánico, manufactura avanzada).
6. Matemática, Estadística y Ciencias Aplicadas
(Incluye matemática y estadística aplicada a la ingeniería, física aplicada a la ingeniería,
seguridad industrial y ergonomía).